Google BigQuery でフェデレーション クエリを実行する

プレビュー

この機能はパブリックプレビュー段階です。

この記事では、 によって管理されていない データに対してフェデレーション クエリを実行するためにレイクハウスフェデレーションを設定する方法について説明します。BigQueryDatabricksレイクハウスフェデレーションの詳細については、 「レイクハウスフェデレーションとは何ですか?」を参照してください。 。

レイクハウスフェデレーションを使用して BigQuery データベースに接続するには、Databricks Unity Catalog メタストアに以下を作成する必要があります。

  • BigQuery データベース への接続

  • Unity Catalog のクエリー構文ツールとデータガバナンス ツールを使用してデータベースへの Databricks ユーザー アクセスを管理できるように、Unity Catalog で BigQuery データベースをミラーリングする フォーリンカタログ

始める前に

ワークスペースの要件:

  • Unity Catalog に対して有効なワークスペース。

コンピュートの要件:

  • Databricks Runtime クラスターまたは SQLウェアハウスからターゲット データベース システムへのネットワーク接続。 「レイクハウスフェデレーションのネットワークに関する推奨事項」を参照してください。

  • Databricks クラスターでは、Databricks Runtime 13.3 LTS 以降と、共有またはシングル ユーザー アクセス モードを使用する必要があります。

  • SQLウェアハウスは Pro または サーバレス である必要があります。

必要な権限:

  • 接続を作成するには、メタストア管理者であるか、ワークスペースにアタッチされている Unity Catalog メタストアに対する CREATE CONNECTION 特権を持つユーザーである必要があります。

  • フォーリンカタログを作成するには、メタストアに対する CREATE CATALOG 権限を持ち、接続の所有者であるか、接続に対する CREATE FOREIGN CATALOG 権限を持っている必要があります。

追加のアクセス許可要件は、以下の各タスクベースのセクションで指定されています。

接続を作成する

接続は、外部データベース・システムにアクセスするためのパスと資格情報を指定します。 接続を作成するには、カタログエクスプローラを使用するか、Databricks ノートブックの CREATE CONNECTION SQL コマンド、または Databricks SQL クエリーエディタを使用します。

注:

Databricks REST API または Databricks CLI を使用して接続を作成することもできます。 POST /api/2.1/unity-catalog/connections を参照してください。 および Unity Catalog コマンド

必要な権限: メタストア管理者または CREATE CONNECTION 権限を持つユーザー。

  1. Databricks ワークスペースで、カタログ アイコン [カタログ] をクリックします 。

  2. [ カタログ ] ウィンドウの上部にある [追加アイコンまたはプラスアイコン 追加 ] アイコンをクリックし、メニューから [ 接続の追加 ] を選択します。

    または、クイック アクセスページで[外部データ >]ボタンをクリックし、 [接続]タブに移動して[接続の作成] をクリックします。

  3. わかりやすい 接続名を入力します。

  4. [接続タイプ] で [BigQuery] を選択します。

  5. BigQuery インスタンスの次の接続プロパティを入力します。

    GoogleServiceAccountKeyJson: BigQuery プロジェクトの指定と認証の提供に使用される未加工の JSON オブジェクト。 このJSONオブジェクトを生成し、Googleクラウドのサービスアカウント詳細ページの「KEYS」からダウンロードできます。 サービス アカウントには、BigQuery で適切な権限(BigQuery ユーザーや BigQuery データビューアなど)が付与されている必要があります。 次に例を示します。

    {
      "type": "service_account",
      "project_id": "PROJECT_ID",
      "private_key_id": "KEY_ID",
      "private_key": "-----BEGIN PRIVATE KEY-----\nPRIVATE_KEY\n-----END PRIVATE KEY-----\n",
      "client_email": "SERVICE_ACCOUNT_EMAIL",
      "client_id": "CLIENT_ID",
      "auth_uri": "https://accounts.google.com/o/oauth2/auth",
      "token_uri": "https://accounts.google.com/o/oauth2/token",
      "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
      "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/SERVICE_ACCOUNT_EMAIL",
      "universe_domain": "googleapis.com"
    }
    
  6. (オプション)BigQuery インスタンスの次の接続プロパティを入力します。

    プロジェクト ID: この接続で実行されるすべてのクエリの請求に使用される BigQuery プロジェクトの名前。 デフォルトをサービス アカウントのプロジェクト ID に設定します。

  7. (オプション)[ 接続のテスト ] をクリックして、ネットワーク接続を確認します。 このアクションでは、認証はテストされません。

  8. (オプション)コメントを追加します。

  9. 作成」をクリックします。

ノートブックまたは Databricks SQL クエリーエディターで次のコマンドを実行します。 <GoogleServiceAccountKeyJson> を、BigQuery プロジェクトを指定し、認証を提供する未加工の JSON オブジェクトに置き換えます。このJSONオブジェクトを生成し、Googleクラウドのサービスアカウント詳細ページの「KEYS」からダウンロードできます。 サービス アカウントには、BigQuery ユーザーや BigQuery データビューアなど、BigQuery で適切な権限が付与されている必要があります。 JSON オブジェクトの例については、このページの「 カタログエクスプローラ」(Catalog Explorer ) タブを参照してください。

CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
  GoogleServiceAccountKeyJson '<GoogleServiceAccountKeyJson>'
);

資格情報などの機密性の高い値には、プレーンテキスト文字列ではなく Databricks シークレット を使用することをお勧めします。 例えば:

CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
  GoogleServiceAccountKeyJson secret ('<secret-scope>','<secret-key-user>')
)

シークレットの設定については、「 シークレット管理」を参照してください。

フォーリンカタログの作成

フォーリンカタログは、Databricks と Unity Catalog を使用して、そのデータベース内のデータへのアクセスをクエリーおよび管理できるように、外部データ システム内のデータベースをミラーリングします。 フォーリンカタログを作成するには、すでに定義されているデータソースへの接続を使用します。

フォーリンカタログを作成するには、カタログエクスプローラを使用するか、DatabricksノートブックまたはDatabricks SQLクエリーエディタで CREATE FOREIGN CATALOG を使用できます。

注:

Databricks REST API または Databricks CLI を使用してカタログを作成することもできます。 POST /api/2.1/unity-catalog/catalogs を参照してください。 または Unity Catalog コマンド

必要なアクセス許可: メタストアに対する CREATE CATALOG アクセス許可と、接続の所有権または接続に対する CREATE FOREIGN CATALOG 権限のいずれか。

  1. Databricks ワークスペースで、カタログ アイコン[カタログ]をクリックしてカタログ・エクスプローラーを開きます。

  2. [ カタログ ] ウィンドウの上部にある [追加アイコンまたはプラスアイコン 追加 ] アイコンをクリックし、メニューから [ カタログの追加 ] を選択します。

    または、[ クイック アクセス ] ページで [ カタログ ] ボタンをクリックし、[ カタログの作成 ] ボタンをクリックします。

  3. (オプション)次のカタログ・プロパティを入力します。

    データ プロジェクト ID: このカタログにマッピングされるデータを含む BigQuery プロジェクトの名前。 デフォルトは、接続レベルで設定された請求プロジェクト ID です。

  4. 「カタログの作成」のフォーリンカタログの作成手順に従ってください。

ノートブックまたは Databricks SQL エディターで次の SQL コマンドを実行します。 括弧内の項目はオプションです。 プレースホルダー値を置き換えます。

  • <catalog-name>: Databricks のカタログの名前。

  • <connection-name>: データソース、パス、およびアクセス資格情報を指定する 接続オブジェクト

CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>;

サポートされているプッシュダウン

次のプッシュダウンがサポートされています。

  • フィルター

  • 予測

  • 制限

  • 関数: 部分的、フィルター式のみ。 (文字列関数、数学関数、データ関数、時刻関数、タイムスタンプ関数、およびその他の関数 (Alias、Cast、SortOrder など)

  • 集計

  • 並べ替え (制限付きで使用した場合)

次のプッシュダウンはサポートされていません。

  • テーブル結合(join)

  • Windows の機能

データ型のマッピング

次の表に、BigQuery と Spark のデータ型のマッピングを示します。

BigQuery タイプ

Spark タイプ

bignumeric, numeric

DecimalType (10 進数型)

int64

LongType

float64

DoubleType

array, geography, interval, json, string, struct

VarcharType (可変文字型)

bytes

BinaryType

bool

BooleanType

date

DateType

datetime, time, timestamp

TimestampType/TimestampNTZType

BigQuery から読み取る場合、BigQuery Timestamp は Spark TimestampType にマッピングされます ( preferTimestampNTZ = false デフォルト)。 BigQuery TimestampTimestampNTZType にマッピングされます ( preferTimestampNTZ = trueの場合)。