Databricks でジェネレーション AI アプリを構築する
このページでは、AI 上でDatabricks アプリを開発するためのツールについて、生成AI アプリのビルド、デプロイ、管理などについて概説しています。
生成 AI モデルの提供とクエリ
OpenAI や などの プロバイダーから厳選されたジェネレーションAI モデル セットを提供し、安全でスケーラブルなLLMAnthropic APIsを通じて利用できるようにします。
機能 | 説明 |
---|---|
Meta Llama 、 Anthropic Claude 、 OpenAI GPT などのオープンソースモデルやサードパーティモデルを含む、ジェネレーションAIモデルを提供します。 |
エンタープライズグレードのAIエージェントを構築
ツール・コール・エージェント、取得拡張生成アプリケーション、マルチエージェント・システムなど、独自のエージェントを構築してデプロイします。
機能 | 説明 |
---|---|
ノーコード環境でAIエージェントのプロトタイプを作成し、テストします。エージェントの動作とツールの統合を迅速にエクスペリメントしてから、デプロイ用のコードを生成します。 | |
Pythonでエージェントを作成、デプロイ、評価します。LangChain、LangGraph、純粋なPythonコードエージェントなど、任意のオーサリングライブラリで記述されたエージェントをサポートします。ガバナンスのための Unity Catalog と追跡のための MLflow をサポートします。 | |
ドメイン固有のAIエージェントシステムを、シンプルなノーコードインターフェースで構築し、最適化します。データとメトリクスに焦点を当て、Agent Bricksは実装を合理化します。 |
エージェントの評価、デバッグ、最適化
評価ツールとトレースツールでエージェントのパフォーマンスを追跡し、フィードバックを収集し、品質改善を推進します。
機能 | 説明 |
---|---|
Agent Evaluation と MLflow を使用して、品質、コスト、待機時間を測定します。組み込みのレビューアプリを通じて関係者や対象分野の専門家からフィードバックを収集し、LLMジャッジを使用して品質問題を特定して解決します。 | |
エンドツーエンドの可観測性のために MLflow Tracing を使用します。 エージェントが行ったすべてのステップをログに記録することで、開発および本番運用におけるエージェントの動作のデバッグ、監視、監査が容易になります。 |
AIエージェントの製品化
エージェントを本番運用にデプロイして管理し、スケーラブルなエンドポイント、可観測性、ガバナンスの組み込みを実現します。
タスク | 説明 |
---|---|
エージェントのコード、構成、アーティファクトを Unity Catalog に記録し、ガバナンスとライフサイクル管理に役立てます。 | |
エージェントを管理されたスケーラブルなエンドポイントとしてデプロイします。 | |
オフライン評価とオンラインモニタリングで同じ評価構成(LLM ジャッジとカスタムメトリクス)を使用します。 |