重写 Databricks 资产捆绑包中的作业任务设置

本文介绍如何替代 Databricks 资产捆绑包中 Azure Databricks 作业任务的设置。 请参阅什么是 Databricks 资产捆绑包?

在 Azure Databricks 捆绑配置文件中,可以使用作业定义中的 task 映射将顶级 resources 映射中的作业任务设置与 targets 映射中的作业任务设置联接在一起,例如(省略号指示省略的内容,为简洁起见):

# ...
resources:
  jobs:
    <some-unique-programmatic-identifier-for-this-job>:
      # ...
      tasks:
        - task_key: <some-unique-programmatic-identifier-for-this-task>
          # Task settings.

targets:
  <some-unique-programmatic-identifier-for-this-target>:
    resources:
      jobs:
        <the-matching-programmatic-identifier-for-this-job>:
          # ...
          tasks:
            - task_key: <the-matching-programmatic-identifier-for-this-key>
              # Any more task settings to join with the settings from the
              # resources mapping for the matching top-level task_key.
          # ...

若要连接顶级 resources 映射和同一 tasktargets 映射,task 映射的 task_key 必须设置为相同的值。

如果在顶级 resources 映射和 targets 映射中的同一个 task 定义了任何作业任务设置,则 targets 映射中的设置优先于顶级 resources 映射中的设置。

示例 1:在多个资源映射中定义作业任务设置,且无设置冲突。

在此示例中,spark_version在顶级resources映射中,结合node_type_idnum_workersresources映射中的targets,以定义名为my-tasktask_key的设置(省略号指示为简洁起见而省略的内容):

# ...
resources:
  jobs:
    my-job:
      name: my-job
      tasks:
        - task_key: my-key
          new_cluster:
            spark_version: 13.3.x-scala2.12

targets:
  development:
    resources:
      jobs:
        my-job:
          name: my-job
          tasks:
            - task_key: my-task
              new_cluster:
                node_type_id: Standard_DS3_v2
                num_workers: 1
          # ...

运行 databricks bundle validate 此示例时,生成的图形如下所示(省略号指示省略的内容,为简洁起见):

{
  "...": "...",
  "resources": {
    "jobs": {
      "my-job": {
        "tasks": [
          {
            "new_cluster": {
              "node_type_id": "Standard_DS3_v2",
              "num_workers": 1,
              "spark_version": "13.3.x-scala2.12"
            },
            "task-key": "my-task"
          }
        ],
        "...": "..."
      }
    }
  }
}

示例 2:多个资源映射中定义的冲突作业任务设置

在此示例中,spark_versionnum_workers定义在顶级resources映射中以及resources中的targets映射中。 在spark_versionnum_workersresources映射优先于顶级targets映射中的spark_versionnum_workers。 这定义了命名task_key的设置my-task(省略号指示省略的内容,为简洁起见):

# ...
resources:
  jobs:
    my-job:
      name: my-job
      tasks:
        - task_key: my-task
          new_cluster:
            spark_version: 13.3.x-scala2.12
            node_type_id: Standard_DS3_v2
            num_workers: 1

targets:
  development:
    resources:
      jobs:
        my-job:
          name: my-job
          tasks:
            - task_key: my-task
              new_cluster:
                spark_version: 12.2.x-scala2.12
                num_workers: 2
          # ...

运行 databricks bundle validate 此示例时,生成的图形如下所示(省略号指示省略的内容,为简洁起见):

{
  "...": "...",
  "resources": {
    "jobs": {
      "my-job": {
        "tasks": [
          {
            "new_cluster": {
              "node_type_id": "Standard_DS3_v2",
              "num_workers": 2,
              "spark_version": "12.2.x-scala2.12"
            },
            "task_key": "my-task"
          }
        ],
        "...": "..."
      }
    }
  }
}