インフラストラクチャのセットアップ

プレビュー

この機能は プライベート プレビュー段階です。 お試しになるには、Databricks の担当者にお問い合わせください。

別のRAG Studioドキュメントをお探しですか?RAGドキュメントインデックスに移動

このドキュメントでは、RAG Studioアプリケーションを作成するために必要なインフラストラクチャの構成について説明します。

  1. Databricks のワークスペース

  2. <uc> スキーマ

  3. Vector Search エンドポイント

  4. Secrets Manager に保存された個人用アクセストークン

  5. 生成AIモデル

  6. クラスター構成

RAG アプリケーションを作成するときにこれらの値が必要になるため、以下のステップを読みながら、以下のようなスクラッチ パッドを使用してこれらの値を書き留めることをお勧めします。 これらの値は、アプリケーションを初期化するときに要求されます。

vector_search_endpoint_name:
unity_catalog_catalog_name:
unity_catalog_schema_name:
secret_scope:
secret_name:
model_serving_endpoint_chat: databricks-llama-2-70b-chat
model_serving_endpoint_embeddings: databricks-bge-large-en

Databricks ワークスペース

サポートされているリージョン でUnity Catalog とサーバレスが有効になっている Databricks ワークスペースを選択します。アプリケーションの構成時に使用するワークスペースの URL に注意してください (例: https://workspace-name.cloud.databricks.com )。

Unity Catalog スキーマ

RAG Studioは、Unity Catalogスキーマ内にすべてのアセットを作成します。

  1. 新しいカタログや新しいスキーマを作成する 、既存の カタログ / スキーマ を選択します。

  2. SQL またはカタログ エクスプローラーを使用して、Databricks アカウントのData Editor権限をカタログ/スキーマに割り当てます。

    注:

    新しいカタログ/スキーマを作成した場合は、必要な権限が既にあります。

    GRANT
        USE SCHEMA,
        APPLY TAG,
        MODIFY,
        READ VOLUME,
        REFRESH,
        SELECT,
        WRITE VOLUME,
        CREATE FUNCTION,
        CREATE MATERIALIZED VIEW,
        CREATE MODEL,
        CREATE TABLE,
        CREATE VOLUME
    ON SCHEMA my_schema
    TO `user@domain.com`;
    
    data_editor

Vector Search エンドポイント

UI または Python SDK を使用して新しいエンドポイントを作成するか、既存のエンドポイントを選択します。

Secrets Manager に保存された個人用アクセストークン

警告

このアプローチは、モデルサービングでホストされているアプリのチェーンが RAG Studio によって作成されたベクター検索インデックスにアクセスできるようにするための一時的な回避策です。 将来的には、これは必要なくなります。

  1. 上記で作成したUnity Catalogスキーマにアクセスできる個人アクセス ウイルス (PAT) を作成します。

  1. PATをaシークレットスコープに保存する

    注:

    これらのステップは、 開発環境 に従って Databricks CLI をインストールしていることを前提としています。 詳細な手順については、 シークレット管理のドキュメントを参照してください。

    databricks secrets create-scope <scope-name>
    databricks secrets put-secret <scope-name> <secret-name>
    

生成AIモデル

RAG Studio は、基礎モデルにアクセスするために Databricks モデルサービングとネイティブに統合します。 この統合は、RAG Studioの 🤖 LLM Judge 、および 🔗 Chain および 🗃️ Data Processor内で使用されます。

次の 2 種類のモデルにアクセスする必要があります。

  1. スキーマに従ったチャットモデルllm/v1/chat

  2. 埋め込みモデル 追従 llm/v1/embeddings

注:

LLaMa2-70B-ChatおよびBGE-Large-ENを使用するには、追加のセットアップは必要ありませんDatabricks基盤APIsによってホストされるオープン ソース モデルを、支払いごとの支払いで使用できます。

オプションで、次の項目を設定することもできます。