ステップ1. コードリポジトリをクローンしてコンピュートを作成する

評価主導型開発ワークフロー

このセクションのサンプル コードについては、GitHub リポジトリを参照してください。

次の手順に従って、サンプル コードをDatabricksワークスペースに読み込み、アプリケーションのグローバル設定を構成します。

要件

  • サーバレス コンピュート およびDatabricks が有効になっている ワークスペース。Unity Catalog

  • 既存のMosaic AI Vector Searchエンドポイント、または新しい検索エンドポイントを作成するための権限 (この場合はセットアップによって自動的に作成されます)。

  • 解析されチャンク化されたドキュメントとインデックスを含む出力 テーブルが保存される既存の スキーマへの書き込みアクセス、または新しいカタログとスキーマを作成する権限 (この場合、セットアップによって自動的に作成されます)。Unity CatalogDelta

  • DBR 14.3 以降を実行し、インターネットにアクセスできるシングルユーザー クラスター。 必要な Python およびシステム パッケージをダウンロードするには、インターネット アクセスが必要です。 これらのチュートリアルでは、Python パッケージが Databricks Runtime ML と競合するため、Databricks Runtime for Machine Learning を実行しているクラスターを使用しないでください。

指示

  1. Git フォルダーを使用して、このリポジトリをワークスペースにクローンします。

    Git フォルダーの作成方法のビデオ
  2. rag_app_sample_code/00_global_config ノートブックを開き、そこで設定を調整します。

    # The name of the RAG application.  This is used to name the chain's model in Unity Catalog and prepended to the output Delta tables and vector indexes
    RAG_APP_NAME = 'my_agent_app'
    
    # Unity Catalog catalog and schema where outputs tables and indexes are saved
    # If this catalog/schema does not exist, you need create catalog/schema permissions.
    UC_CATALOG = f'{user_name}_catalog'
    UC_SCHEMA = f'rag_{user_name}'
    
    ## Name of model in Unity Catalog where the POC chain is logged
    UC_MODEL_NAME = f"{UC_CATALOG}.{UC_SCHEMA}.{RAG_APP_NAME}"
    
    # Vector Search endpoint where index is loaded
    # If this does not exist, it will be created
    VECTOR_SEARCH_ENDPOINT = f'{user_name}_vector_search'
    
    # Source location for documents
    # You need to create this location and add files
    SOURCE_PATH = f"/Volumes/{UC_CATALOG}/{UC_SCHEMA}/source_docs"
    
  3. 01_validate_config_and_create_resources ノートブックを開いて実行します。

次のステップ

「POC の展開」に進みます。