メインコンテンツまでスキップ

Databricks アセット バンドルのジョブ タスク設定をオーバーライドする

この記事では、Databricks アセット バンドルで Databricks ジョブ タスクの設定をオーバーライドする方法について説明します。「Databricks アセットバンドルとは」を参照してください。

Databricksバンドル設定ファイルでは、ジョブ定義内のtaskマッピングを使用して、トップレベルresourcesマッピングのジョブタスク設定をtargetsマッピングのジョブタスク設定と結合できます(省略記号は簡潔にするために省略された内容を示します)。

YAML
# ...
resources:
jobs:
<some-unique-programmatic-identifier-for-this-job>:
# ...
tasks:
- task_key: <some-unique-programmatic-identifier-for-this-task>
# Task settings.

targets:
<some-unique-programmatic-identifier-for-this-target>:
resources:
jobs:
<the-matching-programmatic-identifier-for-this-job>:
# ...
tasks:
- task_key: <the-matching-programmatic-identifier-for-this-key>
# Any more task settings to join with the settings from the
# resources mapping for the matching top-level task_key.
# ...

同じ task の最上位の resources マッピングと targets マッピングを結合するには、task マッピングの task_key を同じ値に設定する必要があります。

最上位のresourcesマッピングと同じtasktargetsマッピングの両方でジョブタスク設定が定義されている場合、targetsマッピングの設定は最上位のresourcesマッピングの設定よりも優先されます。

例 1: ジョブ・タスク設定が複数のリソース・マッピングで定義され、設定の競合がない

この例では、最上位のresourcesマッピングのspark_versionが、targetsresourcesマッピングのnode_type_idおよびnum_workersと組み合わされて、my-taskという名前のtask_keyの設定を定義します(省略記号は簡潔にするために省略されたコンテンツを示します):

YAML
# ...
resources:
jobs:
my-job:
name: my-job
tasks:
- task_key: my-key
new_cluster:
spark_version: 13.3.x-scala2.12

targets:
development:
resources:
jobs:
my-job:
name: my-job
tasks:
- task_key: my-task
new_cluster:
node_type_id: n2-highmem-4
num_workers: 1
# ...

この例で databricks bundle validate を実行すると、結果のグラフは次のようになります (省略記号は簡潔にするために省略されたコンテンツを示します)。

JSON
{
"...": "...",
"resources": {
"jobs": {
"my-job": {
"tasks": [
{
"new_cluster": {
"node_type_id": "n2-highmem-4",
"num_workers": 1,
"spark_version": "13.3.x-scala2.12"
},
"task-key": "my-task"
}
],
"...": "..."
}
}
}
}

例 2: 複数のリソースマッピングで定義された競合するジョブタスク設定

この例では、spark_versionnum_workers は最上位の resources マッピングと targetsresources マッピングの両方で定義されています。 targetsresources マッピングのspark_versionnum_workersは、最上位の resources マッピングのspark_versionnum_workersよりも優先されます。これは my-task という名前の task_key の設定を定義します(省略記号は簡潔にするために省略された内容を示します):

YAML
# ...
resources:
jobs:
my-job:
name: my-job
tasks:
- task_key: my-task
new_cluster:
spark_version: 13.3.x-scala2.12
node_type_id: n2-highmem-4
num_workers: 1

targets:
development:
resources:
jobs:
my-job:
name: my-job
tasks:
- task_key: my-task
new_cluster:
spark_version: 12.2.x-scala2.12
num_workers: 2
# ...

この例で databricks bundle validate を実行すると、結果のグラフは次のようになります (省略記号は簡潔にするために省略されたコンテンツを示します)。

JSON
{
"...": "...",
"resources": {
"jobs": {
"my-job": {
"tasks": [
{
"new_cluster": {
"node_type_id": "n2-highmem-4",
"num_workers": 2,
"spark_version": "12.2.x-scala2.12"
},
"task_key": "my-task"
}
],
"...": "..."
}
}
}
}