生成AI基盤モデルのデプロイ

この記事では、 Databricks モデルサービングを使用した生成 AI および LLM 基盤モデルの提供とクエリのサポートについて説明します。

重要

Databricks でインフラストラクチャ モデルをクエリする方法に関する入門チュートリアルについては、 「Databricks で LLM のクエリを開始する」を参照してください。

基盤モデルとは何ですか?

基礎モデルは、より具体的な言語の理解と生成タスクに合わせて微調整することを目的として、事前トレーニングされた大規模な機械学習モデルです。 これらのモデルは、生成 AI および LLM ワークロードの入力データ内のパターンを識別するために利用されます。

Databricks モデルサービングは、次の機能を使用して基盤モデルの提供とクエリをサポートします。

  • プラットフォームAPIs 。 この機能により、モデルサービング エンドポイントで最先端のオープン モデルを利用できるようになります。 これらのモデルは、最適化された推論をサポートする厳選された基盤モデル アーキテクチャです。 DBRX Instruct、Llama-2-70B-chat、BGE-Large、 Mistral -7B などのベース モデルは、支払いごとの価格ですぐに使用でき、パフォーマンスの保証と微調整されたモデル バリアントを必要とするワークロードをすぐに使用できます。プロビジョニングスループットを搭載。

  • 外部モデル。 これらは、Databricks の外部でホストされるモデルです。 外部モデルにサービスを提供するエンドポイントは一元的に管理でき、顧客はレート制限とアクセス制御を確立できます。 例には、OpenAI の GPT-4、Anthropic の Claude などの基盤モデルが含まれます。

要件

Databricks モデルサービングを使用して基盤モデルにアクセスしてクエリを実行するには、各機能の要件を確認してください。

エンドポイントを提供する基盤モデルを作成する

「基盤モデルのサービス提供エンドポイントの作成」を参照してください。

基盤モデルのクエリ