Databricks で生成AI アプリを構築する
このページでは、 Databricks上で生成AI (gen AI ) アプリを構築、デプロイ、管理するためのツールの概要を説明します。
AI 大規模言語モデル (LLM) のサーブとクエリ生成
OpenAI やAnthropicなどのLLMプロバイダーから厳選された生成AI モデル セットを提供し、安全でスケーラブルなAPIを通じて利用できるようにします。
機能 | 説明 |
|---|---|
Meta Llama 、 Anthropic Claude 、 OpenAI GPT などのオープンソースモデルやサードパーティモデルを含む、生成AIモデルを提供します。 |
エンタープライズグレードのAIエージェントを構築して展開する
ツール・コール・エージェント、取得拡張生成アプリケーション、マルチエージェント・システムなど、独自のエージェントを構築してデプロイします。
機能 | 説明 |
|---|---|
ノーコード環境でAIエージェントのプロトタイプを作成し、テストします。エージェントの動作とツールの統合を迅速にエクスペリメントしてから、デプロイ用のコードを生成します。 | |
シンプルなインターフェースでドメイン固有のAIエージェントシステムを構築および最適化します。データと メトリクス Agent Bricks が実装を合理化します。 | |
Python を使用してエージェントを作成、展開、評価します。任意のオーサリング ライブラリで作成されたエージェントをサポートします。MLflow Tracing と統合されています。Databricks Appsを使用して迅速に反復します。 | |
構造化データと非構造化データ、実行コードをクエリしたり、外部サービスAPIsに接続したりするためのエージェント ツールを作成します。 | |
エージェントがデータやツールに接続する方法を標準化し、安全で一貫性のあるインターフェースを実現します。 |
エージェントの評価、デバッグ、最適化
評価ツールとトレースツールでエージェントのパフォーマンスを追跡し、フィードバックを収集し、品質改善を推進します。
機能 | 説明 |
|---|---|
エンドツーエンドの可観測性のためにMLflow Tracing使用します。 開発および本番運用でエージェントの動作をデバッグ、監視、監査するためにエージェントが実行するすべてのステップを記録します。 | |
Agent Evaluation と MLflow を使用して、品質、コスト、待機時間を測定します。組み込みのレビューアプリを通じて関係者や対象分野の専門家からフィードバックを収集し、LLMジャッジを使用して品質問題を特定して解決します。 | |
オフライン評価とオンラインモニタリングで同じ評価構成(LLM ジャッジとカスタムメトリクス)を使用します。 |