PostgreSQLでの横串検索ーの実行

この記事では、PostgreSQL によって管理されていない データの実行クエリに対してフェデレーション クエリを実行するためにレイクハウスフェデレーションをセットアップする方法について説明します。Databricksレイクハウスフェデレーションの詳細については、 「レイクハウスフェデレーションとは何ですか?」を参照してください。 。

レイクハウスフェデレーションを使用して PostgreSQL データベースでクエリを実行するに接続するには、Databricks Unity Catalog メタストアに以下を作成する必要があります。

  • PostgreSQL データベースでクエリーを実行するへの接続。

  • Unity Catalog の PostgreSQL データベースで Run クエリー をミラーリングし、Unity Catalog のクエリー構文ツールとデータガバナンス ツールを使用してデータベースへの Databricks ユーザー アクセスを管理できるようにする外部 カタログ

始める前に

ワークスペースの要件:

  • ワークスペースで Unity Catalogが有効になっています。

コンピュート 要件:

  • コンピュート・リソースからターゲット・データベース・システムへのネットワーク接続。 「レイクハウスフェデレーションのネットワーキングに関する推奨事項」を参照してください。

  • Databricks コンピュートは、Databricks Runtime 13.3 LTS 以上、および共有またはシングル ユーザー アクセス モードを使用する必要があります。

  • SQLウェアハウスはProまたはServerlessで、2023.40以上を使用している必要があります。

必要な権限:

  • 接続を作成するには、メタストア管理者であるか、ワークスペースにアタッチされている Unity Catalog メタストアに対する CREATE CONNECTION 権限を持つユーザーである必要があります。

  • フォーリンカタログを作成するには、メタストアに対する CREATE CATALOG 権限を持ち、接続の所有者であるか、接続に対する CREATE FOREIGN CATALOG 権限を持っている必要があります。

追加のアクセス許可要件は、以降の各タスクベースのセクションで指定されています。

接続を作成する

接続では、外部データベース システムにアクセスするためのパスと資格情報を指定します。 接続を作成するには、カタログ エクスプローラーを使用するか、Databricks ノートブックまたは Databricks SQL クエリー エディターで CREATE CONNECTION SQL コマンドを使用できます。

注:

Databricks REST API または Databricks CLI を使用して接続を作成することもできます。 POST /api/2.1/unity-catalog/connections を参照してください。 および Unity Catalog コマンド

必要な権限: メタストア管理者または CREATE CONNECTION 権限を持つユーザー。

  1. Databricks ワークスペースで、[カタログ アイコン カタログ] をクリックします 。

  2. [ カタログ ] ウィンドウの上部にある [追加アイコンまたはプラスアイコン 追加 ] アイコンをクリックし、メニューから [ 接続の追加 ] を選択します。

    または、クイック アクセスページで[外部データ >]ボタンをクリックし、 [接続]タブに移動して[接続の作成] をクリックします。

  3. わかりやすい 接続名を入力します。

  4. [ 接続の種類 ] として [PostgreSQL] を選択します。

  5. PostgreSQL インスタンスの次の接続プロパティを入力します。

    • ホスト: たとえば、 postgres-demo.lb123.us-west-2.rds.amazonaws.com

    • ポート: たとえば、 5432

    • ユーザー: たとえば、 postgres_user

    • パスワード: たとえば、 password123

  6. (オプション)[ 接続のテスト ] をクリックして、動作することを確認します。

  7. (オプション)コメントを追加します。

  8. [作成]をクリックします。

ノートブックまたは Databricks SQL クエリー エディターで次のコマンドを実行します。

CREATE CONNECTION <connection-name> TYPE postgresql
OPTIONS (
  host '<hostname>',
  port '<port>',
  user '<user>',
  password '<password>'
);

資格情報などの機密性の高い値には、プレーンテキスト文字列の代わりに Databricks シークレット を使用することをお勧めします。 例えば:

CREATE CONNECTION <connection-name> TYPE postgresql
OPTIONS (
  host '<hostname>',
  port '<port>',
  user secret ('<secret-scope>','<secret-key-user>'),
  password secret ('<secret-scope>','<secret-key-password>')
)

シークレットの設定に関する情報については、「 シークレット管理」を参照してください。

フォーリンカタログの作成

フォーリンカタログは、外部データ システム内のデータベースをミラーリングするため、Databricks と Unity Catalogを使用して、そのデータベース内のデータへのアクセスを管理できます。 フォーリンカタログを作成するには、すでに定義されている DATA への接続を使用します。

フォーリンカタログを作成するには、カタログ エクスプローラー、または Databricks ノートブックまたは SQL クエリ エディターのCREATE FOREIGN CATALOG SQL コマンドを使用できます。

注:

Databricks REST API または Databricks CLI を使用してカタログを作成することもできます。 POST /api/2.1/unity-catalog/catalogs を参照してください。 および Unity Catalog コマンド

必要なアクセス許可: メタストアに対する CREATE CATALOG アクセス許可と、接続の所有権または接続に対する CREATE FOREIGN CATALOG 特権。

  1. Databricks ワークスペースで、カタログ アイコン[カタログ]をクリックしてカタログ・エクスプローラーを開きます。

  2. [ カタログ ] ウィンドウの上部にある [追加アイコンまたはプラスアイコン 追加 ] アイコンをクリックし、メニューから [ カタログの追加 ] を選択します。

    または、[ クイック アクセス ] ページで [ カタログ ] ボタンをクリックし、[ カタログの作成 ] ボタンをクリックします。

  3. 「カタログの作成」のフォーリンカタログの作成手順に従ってください。

ノートブックまたは SQL クエリ エディターで次の SQL コマンドを実行します。 括弧内の項目はオプションです。 プレースホルダーの値を置き換えます。

  • <catalog-name>: Databricksのカタログの名前。

  • <connection-name>: データソース、パス、およびアクセス資格情報を指定する 接続オブジェクト

  • <database-name>: Databricks でカタログとしてミラー化するデータベースの名前。

CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');

サポートされているプッシュダウン

次のプッシュダウンは、すべてのコンピュートでサポートされています。

  • フィルター

  • 予測

  • 極限

  • 関数: 部分的、フィルター式のみ。 (文字列関数、数学関数、およびその他の関数 (Alias、Cast、SortOrder など)

次のプッシュダウンは、Databricks Runtime 13.3 LTS 以降および SQL ウェアハウスでサポートされています。

  • 集計関数 MIN、MAX、COUNT、SUM、AVG、VAR_POP、VAR_SAMP、STDDEV_POP、STDDEV_SAMP、GREATEST、LEAST、COVAR_POP、COVAR_SAMP、CORR、REGR_INTERCEPT、REGR_R2、REGR_SLOPE、REGR_SXY

  • 次のBoolean関数: =、<、<、=>、>=、<=>

  • 次の数学関数 (ANSI が無効になっている場合はサポートされません): +、-、*、%、/

  • その他の演算子 |そして~

  • 制限付きで使用する場合の並べ替え

次のプッシュダウンはサポートされていません。

  • 結合

  • Windows の機能

データ型マッピング

PostgreSQL から Spark に読み込むと、データ型は次のようにマップされます。

PostgreSQL 型

Spark タイプ

numeric

DecimalType

int2

ShortType

int4 (signedではない場合)

IntegerType

int8, oid, xid, int4 (signedの場合)

LongType

float4

FloatType

double precision, float8

DoubleType

char

CharType

name, varchar, tid

VarcharType

bpchar, character varying, json, money, point, super, text

StringType

bytea, geometry, varbyte

BinaryType

bit, bool

BooleanType

date

DateType

tabstime, time, time with time zone, timetz, time without time zone, timestamp with time zone, timestamp, timestamptz, timestamp without time zone*

TimestampType/TimestampNTZType

Postgresql array type**

ArrayType

*Postgresqlから読み取る場合、Postgresql Timestamp preferTimestampNTZ = falseされている場合、Spark TimestampType にマップされます(デフォルト)。Postgresql Timestamp は、 preferTimestampNTZ = trueの場合、 TimestampNTZType にマップされます。

**サポートされる配列型は限られています。