メインコンテンツまでスキップ

Google 広告取り込みパイプラインを作成する

備考

ベータ版

この機能はベータ版です。ワークスペース管理者は、 プレビュー ページからこの機能へのアクセスを制御できます。「Databricks プレビューの管理」を参照してください。

Google 広告から Databricks にデータを取り込むためのマネージド取り込みパイプラインを作成する方法を学びます。

要件

取り込み パイプラインを作成するには、次の要件を満たす必要があります。

  • ワークスペースでUnity Catalogが有効になっている必要があります。

  • ワークスペースでサーバレスコンピュートを有効にする必要があります。 「サーバレス コンピュート要件」を参照してください。

  • 新しい接続を作成する場合: メタストアに対するCREATE CONNECTION権限が必要です。

    コネクタが UI ベースのパイプライン オーサリングをサポートしている場合、管理者はこのページのステップを完了することで、接続とパイプラインを同時に作成できます。 ただし、パイプラインを作成するユーザーが API ベースのパイプライン オーサリングを使用している場合、または管理者以外のユーザーである場合、管理者はまずカタログ エクスプローラーで接続を作成する必要があります。 「管理対象取り込みソースへの接続」を参照してください。

  • 既存の接続を使用する場合: 接続オブジェクトに対するUSE CONNECTION権限またはALL PRIVILEGESが必要です。

  • ターゲット カタログに対するUSE CATALOG権限が必要です。

  • 既存のスキーマに対するUSE SCHEMAおよびCREATE TABLE権限、またはターゲット カタログに対するCREATE SCHEMA権限が必要です。

Google 広告から取り込むには、 「Google 広告取り込み用にOAuthを構成する」のステップを完了する必要があります。

取り込みパイプラインを作成する

このタブでは、Databricks アセット バンドルを使用してインジェスト パイプラインをデプロイする方法について説明します。バンドルにはジョブとタスクの YAML 定義を含めることができ、 Databricks CLIを使用して管理でき、さまざまなターゲット ワークスペース (開発、ステージング、本番運用など) で共有して実行できます。 詳細については、 Databricksアセット バンドルとは何ですか?」を参照してください。 。

  1. Databricks CLI を使用して新しいバンドルを作成します。

    Bash
    databricks bundle init
  2. バンドルに 2 つの新しいリソース ファイルを追加します。

    • パイプライン定義ファイル ( resources/google_ads_pipeline.yml )。
    • データ取り込みの頻度を制御するワークフロー ファイル ( resources/google_ads_job.yml )。

    変更する値パイプライン定義テンプレートを参照してください。

  3. Databricks CLI を使用してパイプラインをデプロイします。

    Bash
    databricks bundle deploy

変更する値

Value

説明

name

パイプラインの一意の名前。

connection_name

Google 広告の認証詳細を保存するUnity Catalog接続の名前。

source_schema

取り込むデータが含まれているアカウントの名前。パイプライン仕様にアカウント ID を入力するときはハイフンを含めないでください。

source_table

取り込むテーブルの名前。

destination_catalog

Databricks に書き込むカタログの名前。

destination_schema

Databricks に書き込むスキーマの名前。

destination_table

オプション。Databricks に書き込むテーブルの一意の名前。これを指定しない場合、コネクタは自動的にソーステーブル名を使用します。

google-ads-manager-account-id

1 つのパイプラインは、最大 1 つの Google 広告マネージャー アカウント ID にマッピングされます。マネージャー アカウント ID が複数の顧客アカウント ID にマッピングされている場合は、同じパイプライン内でそれらの異なる顧客アカウント ID から取り込むことができます。パイプライン仕様にアカウント ID を入力するときはハイフンを含めないでください。

lookback_window_days

オプション (デフォルト: 30 日)。これにより、遅いコンバージョンとアトリビューションの更新をキャプチャするために、各パイプラインの更新中に再チェックする過去の日数が決まります。この値を設定するときは、組織のコンバージョン アトリビューション ウィンドウを考慮してください。

sync_start_date

オプション (デフォルト: 2 年)。これは、レポート テーブルの初期同期開始日をYYYY-MM-DD形式で指定します。

パイプライン定義テンプレート

このタブには、Databricks アセット バンドルで使用するためのテンプレートが用意されています。

以下は、1 つのアカウントから現在のテーブルと将来のテーブルをすべて取り込むresources/google_ads_pipeline.ymlファイルの例です。

YAML
resources:
pipelines:
pipeline_google_ads:
name: <pipeline>
catalog: <destination-catalog>
target: <destination-schema>
ingestion_definition:
connection_name: <connection>
objects:
- schema:
source_schema: <account-id>
destination_catalog: <destination-catalog>
destination_schema: <destination-schema>
google_ads_options:
manager_account_id: <manager-account-id>
lookback_window_days: <lookback-window-days>
sync_start_date: <sync-start-date>

以下は、アカウントから特定のテーブルを選択して取り込むresources/google_ads_pipeline.ymlファイルの例です。

YAML
resources:
pipelines:
pipeline_google_ads:
name: <pipeline-name>
catalog: <destination-catalog>
target: <destination-schema>
ingestion_definition:
connection_name: <connection-name>
objects:
- table:
source_schema: <customer-account-id>
source_table: <table1>
destination_catalog: <destination-catalog>
destination_schema: <destination-schema>
destination_table: <destination-table>
google_ads_options:
manager_account_id: <manager-account-id>
lookback_window_days: <lookback-window-days>
sync_start_date: <sync-start-date>
- table:
source_schema: <customer-account-id>
source_table: table2
destination_catalog: <destination-catalog>
destination_schema: <destination-schema>
destination_table: <destination-table>
google_ads_options:
manager_account_id: <manager-account-id>
lookback_window_days: <lookback-window-days>
sync_start_date: <sync-start-date>

以下はresources/google_ads_job.ymlファイルの例です。

YAML
resources:
jobs:
google_ads_dab_job:
name: google_ads_dab_job
trigger:
# Run this job every day, exactly one day from the last run
# See https://docs.databricks.com/api/workspace/jobs/create#trigger
periodic:
interval: 1
unit: DAYS
email_notifications:
on_failure:
- <email-address>
tasks:
- task_key: refresh_pipeline
pipeline_task:
pipeline_id: <pipeline-id>

一般的なパターン

高度なパイプライン構成については、 「管理された取り込みパイプラインの一般的なパターン」を参照してください。

その他のリソース