Connect to Spotfire アナリスト
この記事では、Spotfire アナリストを Databricks クラスターまたは Databricks SQL ウェアハウスと共に使用する方法について説明します。
要件
Databricks ワークスペース内のクラスターまたは SQLウェアハウス。
クラスターまたは SQLウェアハウスの接続の詳細 (具体的には、 サーバーのホスト名、 ポート、 および HTTP パス の値)。
Databricksの個人アクセストークン。 個人アクセストークンを作成するには、次の手順を実行します。
Databricks ワークスペースで、上部のバーにある Databricks ユーザー名をクリックし、ドロップダウンから[設定]を選択します。
[ 開発者] をクリックします。
[アクセストークン] の横にある [管理] をクリックします。
[ 新しいトークンの生成] をクリックします。
(任意)今後このトークンを識別するのに役立つコメントを入力し、トークンのデフォルトの有効期間である90日を変更します。有効期間のないトークンを作成するには(非推奨)、[有効期間 (日) ] ボックスを空白のままにしてください。
[生成] をクリックします。
表示されたトークンを安全な場所にコピーし、[完了] をクリックします。
注
コピーしたトークンは、必ず安全な場所に保存してください。 コピーしたトークンを他のユーザーと共有しないでください。 コピーしたトークンを紛失した場合、まったく同じトークンを再生成することはできません。 代わりに、この手順を繰り返して新しいトークンを作成する必要があります。 コピーしたトークンを紛失した場合、またはトークンが侵害されたと思われる場合は、アクセストークン ページでトークンの横にあるごみ箱 (取り消し) アイコンをクリックして、ワークスペースからそのトークンをすぐに削除することを強くお勧めします。
ワークスペースでトークンを作成または使用できない場合は、ワークスペース管理者がトークンを無効にしているか、トークンを作成または使用する権限を付与していない可能性があります。 ワークスペース管理者または次のトピックを参照してください。
注
自動化されたツール、システム、スクリプト、アプリを使用して認証する場合のセキュリティのベスト プラクティスとして、Databricks ではOAuth トークンを使用することをお勧めします。
個人のアクセス トークン認証を使用する場合、 Databricksでは、ワークスペース ユーザーではなく、サービスプリンシパルに属する個人のアクセス トークンを使用することをお勧めします。 サービスプリンシパルのトークンを作成するには、 「サービスプリンシパルのトークンの管理」を参照してください。
接続するステップ
Spotfire アナリストのナビゲーション バーで、プラス記号 (ファイルとデータ) アイコンをクリックし、[ 接続先] をクリックします。
[ Databricks ] を選択し、[ 新しい接続] をクリックします。
[Apache Spark SQL] ダイアログの [全般] タブの [サーバー] に、ステップ 1 の [サーバーのホスト名] フィールドと [ポート] フィールドの値をコロンで区切って入力します。
[ 認証方法] で [ ユーザー名とパスワード] を選択します。
[ユーザー名] に「
token
」と入力します。[パスワード] には、ステップ 1 から個人用アクセストークンを入力します。
[ 詳細設定 ] タブの [Thrift] トランスポート モードで、[ HTTP] を選択します。
[HTTP パス ] に、ステップ 1 の HTTP パス フィールド値を入力します。
[ 全般 ] タブで、[ 接続] をクリックします。
接続に成功したら、[ データベース ] ボックスの一覧で使用するデータベースを選択し、[ OK] をクリックします。
分析する Databricks データを選択する
[ 接続のビュー] ダイアログでデータを選択します。
Databricks で使用可能なテーブルを参照します。
ビューとして必要なテーブルを追加します。これが Spotfire で分析するデータ テーブルになります。
ビューごとに、含める列を決定できます。 非常に具体的で柔軟なデータ選択を作成する場合は、このダイアログで次のようなさまざまな強力なツールにアクセスできます。
カスタム クエリー。 カスタム クエリーでは、カスタム SQL クエリーを入力して、分析するデータを選択できます。
プロンプト。 データの選択は、分析ファイルのユーザーに任せます。 プロンプトは、選択した列に基づいて構成します。 その後、分析を開いたエンド ユーザーは、関連する値のみのデータを制限および表示することを選択できます。 たとえば、ユーザーは、特定の期間内または特定の地理的地域のデータを選択できます。
OK をクリックします。
クエリを Databricks にプッシュダウンするか、データをインポートする
分析するデータを選択したら、最後の手順として、Databricks からデータを取得する方法を選択します。 分析に追加するデータ テーブルの概要が表示され、各テーブルをクリックしてデータの読み込み方法を変更できます。
Databricksのデフォルトオプションは外部です。つまり、データ テーブルは Databricks のデータベース内に保持され、Spotfire は分析でのアクションに基づいて、関連するデータ スライスのさまざまなクエリをデータベースにプッシュします。
また 、[インポート済み] を選択すると、Spotfire がデータ テーブル全体を事前に抽出するため、ローカルのインメモリ分析が可能になります。 データ テーブルをインポートするときは、TIBCO Spotfire の組み込みインメモリ データ エンジンの分析関数も使用します。
3 番目のオプションは On-demand (動的 WHERE
句に対応) で、分析でのユーザー アクションに基づいてデータのスライスが抽出されます。 データのマーキングやフィルター処理、ドキュメント プロパティの変更などのアクションなどの条件を定義できます。 オンデマンド データ ロードは、 外部 データ テーブルと組み合わせることもできます。