メインコンテンツまでスキップ

Databricks で生成AI アプリを構築する

このページでは、 Databricks上で生成AI (gen AI ) アプリを構築、デプロイ、管理するためのツールの概要を説明します。

AI 大規模言語モデル (LLM) のサーブとクエリ生成

OpenAI やAnthropicなどのLLMプロバイダーから厳選された生成AI モデル セットを提供し、安全でスケーラブルなAPIを通じて利用できるようにします。

機能

説明

基盤モデル

Meta LlamaAnthropic ClaudeOpenAI GPT などのオープンソースモデルやサードパーティモデルを含む、生成AIモデルを提供します。

エンタープライズグレードのAIエージェントを構築して展開する

ツール・コール・エージェント、取得拡張生成アプリケーション、マルチエージェント・システムなど、独自のエージェントを構築してデプロイします。

機能

説明

AI Playground (コードなし)

ノーコード環境でAIエージェントのプロトタイプを作成し、テストします。エージェントの動作とツールの統合を迅速にエクスペリメントしてから、デプロイ用のコードを生成します。

Agent Bricks

シンプルなインターフェースでドメイン固有のAIエージェントシステムを構築および最適化します。データと メトリクス Agent Bricks が実装を合理化します。

カスタムエージェントを構築する

Python を使用してエージェントを作成、展開、評価します。任意のオーサリング ライブラリで作成されたエージェントをサポートします。MLflow Tracing と統合されています。Databricks Appsを使用して迅速に反復します。

AIエージェントツール

構造化データと非構造化データ、実行コードをクエリしたり、外部サービスAPIsに接続したりするためのエージェント ツールを作成します。

MCP(モデルコンテキストプロトコル)

エージェントがデータやツールに接続する方法を標準化し、安全で一貫性のあるインターフェースを実現します。

エージェントの評価、デバッグ、最適化

評価ツールとトレースツールでエージェントのパフォーマンスを追跡し、フィードバックを収集し、品質改善を推進します。

機能

説明

MLflow Tracing

エンドツーエンドの可観測性のためにMLflow Tracing使用します。 開発および本番運用でエージェントの動作をデバッグ、監視、監査するためにエージェントが実行するすべてのステップを記録します。

エージェントの評価

Agent Evaluation と MLflow を使用して、品質、コスト、待機時間を測定します。組み込みのレビューアプリを通じて関係者や対象分野の専門家からフィードバックを収集し、LLMジャッジを使用して品質問題を特定して解決します。

エージェントの監視

オフライン評価とオンラインモニタリングで同じ評価構成(LLM ジャッジとカスタムメトリクス)を使用します。