Amazon Redshift でのフェデレーティッドクエリーの実行

プレビュー

この機能はパブリックプレビュー段階です。

この記事では、Databricks によって管理されていない Amazon Redshift データに対してフェデレーション クエリを実行するためにレイクハウスフェデレーションをセットアップする方法について説明します。 レイクハウスフェデレーションの詳細については、「 レイクハウスフェデレーションとは」を参照してください。

レイクハウスフェデレーションを使用して Amazon Redshift でクエリを実行するデータベースに接続するには、Databricks Unity Catalog メタストアに以下を作成する必要があります。

  • Amazon Redshift データベース上の実行クエリーへの接続。

  • Unity Catalog のクエリー構文ツールとデータガバナンスツールを使用してデータベースへの Databricks ユーザー アクセスを管理できるように、Unity Catalog の Amazon Redshift データベースでクエリーを実行することをミラーリングする 外部カタログ

始める前に

ワークスペースの要件:

  • ワークスペースで Unity Catalogが有効になっています。

コンピュート 要件:

  • Databricks Runtime クラスターまたは SQLウェアハウスからターゲット データベース システムへのネットワーク接続。レイクハウスフェデレーションのネットワークに関する推奨事項を参照してください。

  • Databricks クラスターでは、Databricks Runtime 13.3 LTS 以上と共有またはシングルユーザー アクセス モードを使用する必要があります。

  • SQLウェアハウスは Pro またはサーバレスである必要があります。

必要な権限:

  • 接続を作成するには、メタストア管理者であるか、ワークスペースにアタッチされている Unity Catalog メタストアに対する CREATE CONNECTION 権限を持つユーザーである必要があります。

  • 外部カタログを作成するには、メタストアに対する CREATE CATALOG 権限を持ち、接続の所有者であるか、接続に対する CREATE FOREIGN CATALOG 権限を持っている必要があります。

追加のアクセス許可要件は、以降の各タスクベースのセクションで指定されています。

接続 を作成する

接続では、外部データベース システムにアクセスするためのパスと資格情報を指定します。 接続を作成するには、カタログ エクスプローラーを使用するか、Databricks ノートブックまたは Databricks SQL クエリー エディターで CREATE CONNECTION SQL コマンドを使用できます。

必要な権限: メタストア管理者または CREATE CONNECTION 権限を持つユーザー。

  1. Databricks ワークスペースで、[カタログ アイコン カタログ] をクリックします 。

  2. 左側のウィンドウで、[ 外部データ ] メニューを展開し、[ 接続] を選択します。

  3. [ 接続の作成] をクリックします。

  4. わかりやすい 接続名を入力します。

  5. [接続タイプ] として [Redshift] を選択します。

  6. Redshift インスタンスの次の接続プロパティを入力します。

    • ホスト: たとえば、 redshift-demo.us-west-2.redshift.amazonaws.com

    • ポート: たとえば、 5439

    • ユーザー: たとえば、 redshift_user

    • パスワード: たとえば、 password123

  7. (オプション)[ 接続のテスト ] をクリックして、動作することを確認します。

  8. (オプション)コメントを追加します。

  9. [作成]をクリックします。

ノートブックまたは Databricks SQL クエリー エディターで次のコマンドを実行します。

CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
  host '<hostname>',
  port '<port>',
  user '<user>',
  password '<password>'
);

資格情報などの機密性の高い値には、プレーンテキスト文字列の代わりに Databricks シークレット を使用することをお勧めします。 例えば:

CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
  host '<hostname>',
  port '<port>',
  user secret ('<secret-scope>','<secret-key-user>'),
  password secret ('<secret-scope>','<secret-key-password>')
)

シークレットの設定に関する情報については、「 シークレット管理」を参照してください。

外部カタログ の作成

外部カタログは、外部データ システム内のデータベースをミラーリングするため、Databricks と Unity カタログを使用して、そのデータベース内のデータへのアクセスを管理できます。 外部カタログを作成するには、すでに定義されている DATA への接続を使用します。

外部カタログを作成するには、カタログ エクスプローラーを使用するか、Databricks ノートブックまたは Databricks SQL クエリー エディターで CREATE FOREIGN CATALOG SQL コマンドを使用できます。

必要なアクセス許可: メタストアに対する CREATE CATALOG アクセス許可と、接続の所有権または接続に対する CREATE FOREIGN CATALOG 特権。

  1. Databricks ワークスペースで、[カタログ アイコン カタログ] をクリックします 。

  2. [ カタログの作成] ボタンをクリックします。

  3. [新しいカタログの作成] ダイアログで、カタログの名前を入力し、[種類] の [外部 ] を選択します。

  4. Unity Catalog カタログとしてミラーリングするデータベースへのアクセスを提供する 接続 を選択します。

  5. カタログとしてミラーリングする データベース の名前を入力します。

  6. [作成]をクリックします。

ノートブックまたは Databricks SQL エディターで次の SQL コマンドを実行します。 括弧内の項目はオプションです。 プレースホルダー値を置き換えます。

  • <catalog-name>: Databricksのカタログの名前。

  • <connection-name>: データソース、パス、およびアクセス資格情報を指定する 接続オブジェクト

  • <database-name>: Databricks でカタログとしてミラー化するデータベースの名前。

CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');

サポートされているプッシュダウン

次のプッシュダウンがサポートされています。

  • フィルター

  • 予測

  • 極限

  • 結合

  • 集計 (平均、カウント、最大、最小、標準偏差ポップ、標準偏差、合計、分散分布)

  • 関数 (文字列関数と、エイリアス、キャスト、並べ替え順序などの他の関数)

  • 分別

次のプッシュダウンはサポートされていません。

  • Windows の機能

データ型マッピング

Redshift から Spark に読み込むと、データ型は次のようにマップされます。

Redshift タイプ

Spark タイプ

numeric

DecimalType

int2, int4

IntegerType

int8, OID, XID

LongType

float4

FloatType

double precision, float8, money

DoubleType

bpchar, char, character varying, name, super, text, tid, varchar

StringType

bytea, geometry, varbyte

BinaryType

bit, bool

BooleanType

date

DateType

tabstime, time, time with time zone, timetz, time without time zone, timestamp with time zone, timestamp, timestamptz, timestamp without time zone*

TimestampType/TimestampNTZType

*Redshift から読み取る場合、Redshift Timestamp infer_timestamp_ntz_type = false (デフォルト) の場合、Spark TimestampType にマップされます。Redshift Timestamp は、 infer_timestamp_ntz_type = true TimestampNTZType にマップされます。