メインコンテンツまでスキップ

エージェントの状態とメモリ

備考

Lakebaseオートスケールは、オートスケールコンピュート、ゼロへのスケール、分岐、即時復元を備えたLakebaseの最新バージョンです。 サポートされているリージョンについては、 「リージョンの提供状況」を参照してください。Lakebaseプロビジョニング ユーザーの場合は、 Lakebaseプロビジョニング」を参照してください。

AIエージェントは、ターンやセッションをまたいでコンテキストを維持するために、永続的なストレージを必要とする。Lakebaseオートスケールは、エージェントの状態とメモリを保存するためのフルマネージド Postgres バックエンドを提供し、 Databricks認証とネイティブに統合し、ワークロードに合わせて自動的にスケーリングします。

短期記憶と長期記憶

短期記憶

長期記憶

スレッドIDとチェックポイント機能を使用して、単一の会話セッション内のコンテキストをキャプチャします。

エージェントが以前のやり取りを認識した上で、追加の質問に答えることができるようにします。

複数の会話から重要な知見を抽出し、保存します。

過去のやり取りに基づいて、パーソナライズされた応答を可能にします。

時間の経過とともに改善されるユーザー知識ベースを構築します。

同じエージェント内で、どちらか一方、または両方のメモリタイプを実装できます。

展開オプション

Lakebaseを基盤とするエージェントメモリは、以下の2つのDatabricksデプロイメントターゲットでサポートされています。

Databricks Apps :LangGraphチェックポインタまたはOpenAI Agents SDKを使用して、短期記憶または長期記憶を持つインタラクティブなアプリケーションとしてエージェントをデプロイします。 Databricksは、アプリとLakebase間の認証を自動的に処理します。AIエージェントのメモリを参照してください。

Mosaic AI Model Serving : Lakebase がサポートするチェックポイントを使用して、エージェントをモデルサービング エンドポイントにデプロイします。 LangGraphのタイムトラベル機能をサポートし、任意のチェックポイントから会話を再開したり、分岐させたりできます。AIエージェントメモリ(モデルサービング)を参照してください。

実装

セットアップ手順の詳細、アプリのテンプレート、ノートブックの例については、以下を参照してください。

次のステップ