メインコンテンツまでスキップ

PostgreSQLで横串検索を実行する

この記事では、PostgreSQL によって管理されていない データに対する実行クエリに対してフェデレーション クエリを実行するようにレイクハウスフェデレーションを設定する方法について説明します。Databricksレイクハウスフェデレーションの詳細については、「 レイクハウスフェデレーションとは」を参照してください。

レイクハウスフェデレーションを使用して PostgreSQL データベースの実行クエリに接続するには、 Databricks Unity Catalog メタストアに次のものを作成する必要があります。

  • PostgreSQL データベースに対するクエリの実行への接続。
  • のデータベースに対する実行クエリをミラーリングする フォーリンカタログ PostgreSQL Unity CatalogUnity Catalogクエリ構文とデータガバナンスツールを使用して、データベースへのDatabricks ユーザーアクセスを管理できます。

始める前に

ワークスペースの要件:

  • Unity Catalogのワークスペースが有効になっています。

コンピュートの要件:

  • コンピュート・リソースからターゲット・データベース・システムへのネットワーク接続。 「レイクハウスフェデレーションのネットワーキングに関する推奨事項」を参照してください。
  • Databricks コンピュートは、 Databricks Runtime 13.3 LTS 以上、 および標準 または 専用 アクセスモードを使用する必要があります。
  • SQLウェアハウスはProまたはServerlessで、2023.40以上を使用している必要があります。

必要な権限:

  • 接続を作成するには、メタストア管理者か、ワークスペースに接続されているUnity Catalogメタストアの CREATE CONNECTION 権限を持つユーザーである必要があります。
  • フォーリンカタログを作成するには、メタストアに対する CREATE CATALOG 権限を持ち、接続の所有者であるか、接続に対する CREATE FOREIGN CATALOG 権限を持っている必要があります。

追加の権限要件は、以下の各タスクベースのセクションに記載しています。

接続を作成する

接続では、外部データベースシステムにアクセスするためのパスと認証情報を指定します。接続を作成するには、カタログエクスプローラーを使用するか、Databricksノートブックまたは Databricks SQLクエリーエディタで CREATE CONNECTION SQLコマンドを使用できます。

注記

Databricks REST API または Databricks CLI を使用して接続を作成することもできます。 POST /api/2.1/unity-catalog/connections を参照してください。 および Unity Catalog コマンド

必要な権限: メタストア管理者またはCREATE CONNECTION権限を持つユーザー。

  1. Databricks ワークスペースで、カタログアイコン カタログ をクリックします。

  2. [カタログ]ウィンドウの上部にある [追加またはプラスアイコン 追加] アイコンをクリックし、メニューから [ 接続の追加] を選択します。

    または、 クイックアクセス ページから 外部データ > ボタンをクリックし、 接続 タブに移動して 接続を作成 をクリックします。

  3. 接続のセットアップ ウィザードの 接続の基本 ページで、わかりやすい 接続名 を入力します。

  4. [ 接続タイプ ] で [PostgreSQL] を選択します。

  5. (オプション)コメントを追加します。

  6. 次へ をクリックします。

  7. [ 認証 ] ページで、PostgreSQL インスタンスの次の接続プロパティを入力します。

    • ホスト : たとえば、 postgres-demo.lb123.us-west-2.rds.amazonaws.com
    • ポート : たとえば、 5432
    • ユーザー : たとえば、 postgres_user
    • パスワード : たとえば、 password123
  8. 接続の作成 をクリックします。

  9. [カタログの基本 ] ページで、フォーリンカタログの名前を入力します。フォーリンカタログは、外部データ・システム内のデータベースをミラーリングするため、 Databricks と Unity Catalogを使用して、そのデータベース内のデータへのアクセスをクエリおよび管理できます。

  10. (オプション)[ 接続をテスト ]をクリックして、動作することを確認します。

  11. [ カタログを作成 ] をクリックします。

  12. [ アクセス ] ページで、作成したカタログにユーザーがアクセスできるワークスペースを選択します。[ すべてのワークスペースにアクセス権がある ] を選択するか、[ ワークスペースに割り当て ] をクリックし、ワークスペースを選択して [ 割り当て] をクリックします。

  13. カタログ内のすべてのオブジェクトへのアクセスを管理できる 所有者 を変更します。テキスト ボックスにプリンシパルの入力を開始し、返された結果でプリンシパルをクリックします。

  14. カタログに対する 権限を付与 します。[ 許可 ] をクリックします。

    1. カタログ内のオブジェクトにアクセスできる プリンシパル を指定します。テキスト ボックスにプリンシパルの入力を開始し、返された結果でプリンシパルをクリックします。

    2. 各プリンシパルに付与する 権限プリセット を選択します。デフォルトでは、すべてのアカウントユーザーに BROWSE が付与されます。

      • ドロップダウンメニューから「 データ閲覧者 」を選択して、カタログ内のオブジェクトに対する read 権限を付与します。
      • ドロップダウンメニューから「 データエディタ 」を選択して、カタログ内のオブジェクトに対する read 権限と modify 権限を付与します。
      • 付与する権限を手動で選択します。
    3. 付与 をクリックします。

  15. 次へ をクリックします。

  16. [メタデータ] ページで、タグのキーと値のペアを指定します。詳細については、「Unity Catalog セキュリティ保護可能なオブジェクトにタグを適用する」を参照してください。

  17. (オプション)コメントを追加します。

  18. 保存 をクリックします。

フォーリンカタログの作成

注記

UI を使用してデータソースへの接続を作成する場合は、フォーリンカタログの作成が含まれているため、この手順をスキップできます。

フォーリンカタログは、外部データシステム内のデータベースをミラーリングするため、DatabricksとUnity Catalogを使用して、そのデータベース内のデータへのアクセスを管理できます。フォーリンカタログを作成するには、すでに定義されているデータソースへの接続を使用します。

フォーリンカタログを作成するには、Catalog ExplorerCREATE FOREIGN CATALOGSQL を使用するか、Databricks ノートブックまたは クエリSQL エディターの コマンドを使用します。Databricks REST API または Databricks CLI を使用してカタログを作成することもできます。 POST /api/2.1/unity-catalog/catalogs を参照してください。 および Unity Catalog コマンド

必要な権限: メタストアの CREATE CATALOG 権限、接続の所有権または接続の CREATE FOREIGN CATALOG 権限。

  1. Databricks ワークスペースで、カタログアイコン[カタログ]をクリックして カタログエクスプローラー を開きます。

  2. カタログ ペインの上部で、追加またはプラスアイコン 追加 アイコンをクリックし、メニューから[ カタログを追加 ]を選択します。

    または、 クイックアクセス ページから[ カタログ ]ボタンをクリックし、[ カタログを作成 ]ボタンをクリックします。

  3. 「カタログの作成」のフォーリンカタログの作成手順に従います。

サポートされているプッシュダウン

次のプッシュダウンは、すべてのコンピュートでサポートされています。

  • フィルター
  • 予測
  • 上限
  • 関数: 部分的、フィルター式のみ。 (文字列関数、数学関数、およびその他の関数 (Alias、Cast、SortOrder など)

次のプッシュダウンは、 Databricks Runtime 13.3 LTS 以上、および SQLウェアハウスでサポートされています。

  • 次の集計関数: MIN、MAX、COUNT、SUM、AVG、VAR_POP、VAR_SAMP、STDDEV_POP、STDDEV_SAMP、GREATEST、LEAST、COVAR_POP、COVAR_SAMP、CORR、REGR_INTERCEPT、REGR_R2、REGR_SLOPE、REGR_SXY
  • 次の Boolean 関数: =、<、<、=>、>=、<= >
  • 次の数学関数 (ANSI が無効になっている場合はサポートされません): +、-、*、%、/
  • その他の演算子 |そして~
  • ソート (制限付きで使用した場合)

次のプッシュダウンはサポートされていません。

  • テーブルのJOIN
  • Windows の機能

データ型マッピング

PostgreSQL から Spark に読み取る場合、データ型は次のようにマップされます。

PostgreSQLタイプ

Spark タイプ

numeric

DecimalType

int2

ShortType

int4 (signedではない場合)

IntegerType

int8, oid, xid, int4 (signedの場合)

LongType

float4

FloatType

double precision, float8

DoubleType

char

CharType

name, varchar, tid

VarcharType

bpchar, character varying, json, money, point, super, text

StringType

bytea, geometry, varbyte

BinaryType

bit, bool

BooleanType

日付

DateType

tabstime, time, time with time zone, timetz, time without time zone, timestamp with time zone, timestamp, timestamptz, timestamp without time zone*

TimestampType/TimestampNTZType

Postgresql array type**

ArrayType

*Postgresql から読み取る場合、Postgresql Timestamp は Spark TimestampType にマッピングされます ( preferTimestampNTZ = false (デフォルト)。 PostgreSQL Timestamp は、preferTimestampNTZ = trueの場合、TimestampNTZType にマップされます。

**限られた配列タイプがサポートされています。