Syncsort への接続
プレビュー
この機能は パブリック プレビュー段階です。
Syncsort は、レガシー、メインフレーム、IBM のデータを Databricks と統合することで、データサイロの解消を支援します。 これらのソースから Delta Lake にデータを簡単に取り込むことができます。
Databricksで Syncsort を使用するための手順は次のとおりです。
手順 1: Databricks 個人用アクセス トークンを生成する
Syncsort は、Databricks パーソナルアクセストークンを使用して Databricks で認証します。
自動化されたツール、システム、スクリプト、アプリで認証する際のセキュリティのベストプラクティスとして、Databricks では OAuth トークンを使用することをお勧めします。
personal access token authentication を使用する場合、 Databricks では、ワークスペース ユーザーではなく 、サービスプリンシパル に属する personal access token を使用することをお勧めします。 サービスプリンシパルのトークンを作成するには、「 サービスプリンシパルのトークンの管理」を参照してください。
ステップ 2: 統合のニーズをサポートするためのクラスターを設定する
Syncsort は S3 バケットにデータを書き込み、 Databricks 統合クラスターはその場所からデータを読み取ります。 したがって、統合クラスターには、 S3 バケットへの安全なアクセスが必要です。
S3バケットへの安全なアクセス
AWSリソースにアクセスするには、インスタンスプロファイルを使用してDatabricks統合クラスターを起動します。インスタンスプロファイルは、ステージング S3 バケットと、Delta テーブルを書き込むターゲット S3 バケットにアクセスできる必要があります。 インスタンスプロファイルを作成し、ロールを使用するように統合クラスターを設定するには、 チュートリアル: インスタンスプロファイルを使用した S3 アクセスの設定の手順に従います。
別の方法として、 IAM 資格情報パススルーを使用して、共有クラスターから S3 データへのユーザー固有のアクセスを有効にすることもできます。
クラスター構成の指定
-
クラスターMode を Standard に設定します。
-
[バージョン]Databricks Runtime Databricks ランタイム バージョンに設定します。
-
最適化された書き込みと自動圧縮を有効にするには、次のプロパティを Spark 構成に追加します。
inispark.databricks.delta.optimizeWrite.enabled true
spark.databricks.delta.autoCompact.enabled true -
クラスターは、統合とスケーリングのニーズに応じて構成します。
クラスター構成の詳細については、 コンピュート構成リファレンスを参照してください。
URL と HTTP パスを取得する手順については、「 Databricksコンピュート リソースの接続の詳細を取得する 」を参照してください。JDBC
手順 3: クラスターに接続するための JDBC 接続の詳細と ODBC を取得する
DatabricksクラスターをSyncsortに接続するには、次のJDBC/ODBC接続プロパティが必要です。
- JDBCのURL
- HTTPパス
ステップ 4: Databricks で Syncsort を構成する
Databricks and Connect for Bigのログインページに移動し、指示に従ってください。