ステップ 1.clone code リポジトリとコンピュートの作成

評価主導の開発ワークフロー

このセクションのサンプル コードについては、 GitHub リポジトリ を参照してください。

これらのステップに従って、サンプル コードを Databricks ワークスペースに読み込み、アプリケーションのグローバル設定を構成します。

要件

  • サーバレス コンピュート Databricksと が有効になっている ワークスペース。Unity Catalog

  • 既存の Mosaic AI Vector Search エンドポイントまたは新しいベクトル検索エンドポイントを作成するためのアクセス許可 (この場合は、setup ノートブックによって作成されます)。

  • 解析済みドキュメントとチャンクされたドキュメントとベクトル検索インデックスを含む出力 テーブルが格納されている既存の スキーマへの書き込みアクセス、または新しいカタログとスキーマを作成するためのアクセス許可 (この場合はセットアップ ノートブックによって作成されます)。Unity CatalogDelta

  • DBR 14.3 以降を実行しているシングルユーザー クラスターで、インターネットにアクセスできるもの。 必要なPythonおよびシステムパッケージをダウンロードするには、インターネットアクセスが必要です。 Databricks Runtime for Machine Learning を実行しているクラスターは、これらのチュートリアルで Databricks Runtime ML と Python パッケージが競合しているため、使用しないでください。

指示

  1. このリポジトリを Git フォルダーを使用してワークスペースにクローンします。

    Git フォルダの作成方法のビデオ
  2. rag_app_sample_code/00_global_config ノートブックを開き、そこで設定を調整します。

    # The name of the RAG application.  This is used to name the chain's model in Unity Catalog and prepended to the output Delta tables and vector indexes
    RAG_APP_NAME = 'my_agent_app'
    
    # Unity Catalog catalog and schema where outputs tables and indexes are saved
    # If this catalog/schema does not exist, you need create catalog/schema permissions.
    UC_CATALOG = f'{user_name}_catalog'
    UC_SCHEMA = f'rag_{user_name}'
    
    ## Name of model in Unity Catalog where the POC chain is logged
    UC_MODEL_NAME = f"{UC_CATALOG}.{UC_SCHEMA}.{RAG_APP_NAME}"
    
    # Vector Search endpoint where index is loaded
    # If this does not exist, it will be created
    VECTOR_SEARCH_ENDPOINT = f'{user_name}_vector_search'
    
    # Source location for documents
    # You need to create this location and add files
    SOURCE_PATH = f"/Volumes/{UC_CATALOG}/{UC_SCHEMA}/source_docs"
    
  3. 01_validate_config_and_create_resourcesノートブックを開いて実行します。

次のステップ

POCのデプロイに進みます。