Connect to Spotfire アナリスト

この記事では、Spotfire アナリストを Databricks クラスターまたは Databricks SQL ウェアハウスと共に使用する方法について説明します。

要件

接続するステップ

  1. Spotfire アナリストのナビゲーション バーで、プラス記号 (ファイルとデータ) アイコンをクリックし、[ 接続先] をクリックします。

  2. [ Databricks ] を選択し、[ 新しい接続] をクリックします。

  3. [Apache Spark SQL] ダイアログの [全般] タブの [サーバー] に、ステップ 1 の [サーバーのホスト名] フィールドと [ポート] フィールドの値をコロンで区切って入力します。

  4. [ 認証方法] で [ ユーザー名とパスワード] を選択します。

  5. [ユーザー名] に「 token」と入力します。

  6. [パスワード] には、ステップ 1 から個人用アクセストークンを入力します。

  7. [ 詳細設定 ] タブの [Thrift] トランスポート モードで、[ HTTP] を選択します。

  8. [HTTP パス ] に、ステップ 1 の HTTP パス フィールド値を入力します。

  9. [ 全般 ] タブで、[ 接続] をクリックします。

  10. 接続に成功したら、[ データベース ] ボックスの一覧で使用するデータベースを選択し、[ OK] をクリックします。

分析する Databricks データを選択する

[ 接続のビュー] ダイアログでデータを選択します。

使用可能なテーブル
  1. Databricks で使用可能なテーブルを参照します。

  2. ビューとして必要なテーブルを追加します。これが Spotfire で分析するデータ テーブルになります。

  3. ビューごとに、含める列を決定できます。 非常に具体的で柔軟なデータ選択を作成する場合は、このダイアログで次のようなさまざまな強力なツールにアクセスできます。

    • カスタム クエリー。 カスタム クエリーでは、カスタム SQL クエリーを入力して、分析するデータを選択できます。

    • プロンプト。 データの選択は、分析ファイルのユーザーに任せます。 プロンプトは、選択した列に基づいて構成します。 その後、分析を開いたエンド ユーザーは、関連する値のみのデータを制限および表示することを選択できます。 たとえば、ユーザーは、特定の期間内または特定の地理的地域のデータを選択できます。

  4. OK をクリックします。

クエリを Databricks にプッシュダウンするか、データをインポートする

分析するデータを選択したら、最後の手順として、Databricks からデータを取得する方法を選択します。 分析に追加するデータ テーブルの概要が表示され、各テーブルをクリックしてデータの読み込み方法を変更できます。

受注テーブルの例

Databricksのデフォルトオプションは外部です。つまり、データ テーブルは Databricks のデータベース内に保持され、Spotfire は分析でのアクションに基づいて、関連するデータ スライスのさまざまなクエリをデータベースにプッシュします。

また 、[インポート済み] を選択すると、Spotfire がデータ テーブル全体を事前に抽出するため、ローカルのインメモリ分析が可能になります。 データ テーブルをインポートするときは、TIBCO Spotfire の組み込みインメモリ データ エンジンの分析関数も使用します。

3 番目のオプションは On-demand (動的 WHERE 句に対応) で、分析でのユーザー アクションに基づいてデータのスライスが抽出されます。 データのマーキングやフィルター処理、ドキュメント プロパティの変更などのアクションなどの条件を定義できます。 オンデマンド データ ロードは、 外部 データ テーブルと組み合わせることもできます。

関連リソース

サポート