メインコンテンツまでスキップ

基盤モデルAPIで利用できるDatabricksがホストする基盤モデル

この記事では、Databricks 基盤モデル APIsでサポートされている最先端のオープン モデルについて説明します。

注記

これらのモデルのリージョンの可用性とサポートされている機能領域については、Mosaic AI Model Servingでサポートされている基盤モデルを参照してください。

これらのモデルにクエリ要求を送信するには、 Databricks ワークスペースで使用可能なトークン単位の従量課金エンドポイントを使用します。 使用するモデル・エンドポイントの名前については、 基盤モデルの使用 および トークン単位の従量課金サポート・モデル表 を参照してください。

基盤モデル API は、トークン単位の従量課金モードでモデルをサポートするだけでなく、プロビジョン済みスループット モードも提供します。 Databricks では、本番運用ワークロードのプロビジョン済みスループットを推奨しています。 このモードは、トークン単位の従量課金モードでサポートされているファインチューンされたカスタムの事前トレーニング済みモデルを含む、モデル アーキテクチャ ファミリ (DBRX モデルなど) のすべてのモデルをサポートします。 サポートされているアーキテクチャの一覧については、 プロビジョン済みスループット 基盤モデル API を参照してください。

これらのサポートされているモデルは、 AI Playgroundを使用して操作できます。

OpenAI GPT-5.1

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

エンドポイント名 : databricks-gpt-5-1

GPT-5.1 は、OpenAI によって開発された推論機能を備えた汎用の大規模言語モデルです。このモデルには、素早い会話や深い推論のためのインスタント モードと思考モードの両方が搭載されており、単純なタスクや複雑なタスクに合わせて自動的に調整されます。このモデルは、コンテンツ作成、指導、技術サポート、コーディングに優れており、以前のバージョンよりも厳格なプロンプトエンジニアリングへの依存度が低くなっています。マルチモーダル入力をサポートし、128K トークンのコンテキスト ウィンドウを備えています。GPT-5.1 の詳細をご覧ください。

他の大規模言語モデルと同様に、GPT-5.1 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

OpenAI GPT-5

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

エンドポイント名 : databricks-gpt-5

GPT-5 は、OpenAI によって構築およびトレーニングされた最先端の汎用大規模言語モデルおよび推論モデルです。マルチモーダル入力をサポートし、128K トークンのコンテキスト ウィンドウを備えています。このモデルは、コーディング、チャット、推論、エージェント駆動型タスク用に構築されています。

他の大規模言語モデルと同様に、GPT-5 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks Inc. によってホストされています。

OpenAI GPT-5 mini

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

エンドポイント名 : databricks-gpt-5-mini

GPT-5 mini は、OpenAI によって構築およびトレーニングされた最先端の汎用大規模言語モデルおよび推論モデルです。マルチモーダル入力をサポートし、128K トークンのコンテキスト ウィンドウを備えています。このモデルは、推論とチャットのワークロードに対してコストが最適化されており、信頼性の高い推論、正確な言語、テキストと画像の迅速な出力を必要とする明確に定義されたタスクに優れています。

他の大規模言語モデルと同様に、GPT-5 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

OpenAI GPT-5 nano

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

エンドポイント名 : databricks-gpt-5-nano

GPT-5 nano は、OpenAI によって構築およびトレーニングされた最先端の汎用大規模言語モデルおよび推論モデルです。マルチモーダル入力をサポートし、128K トークンのコンテキスト ウィンドウを備えています。このモデルは、単純な指示の遵守や日常的なビジネス プロセスやモバイル アプリケーションの分類などの高スループット タスクに優れています。

他の大規模言語モデルと同様に、GPT-5 の出力では一部の事実が省略され、誤った情報が生成されることがあります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

Google Gemini 3 Pro プレビュー

重要

Gemini 3 Pro Preview に適用されるモデル開発者ライセンスと条件を参照してください。

エンドポイント名 : databricks-gemini-3-pro

Gemini 3 Pro Preview は、Google が開発およびトレーニングした 100 万トークンのコンテキスト ウィンドウを備えた最先端のハイブリッド推論モデルです。Gemini 3 Pro の高度な推論機能と組み込みのマルチモーダル機能により、幅広い入力とタスクにわたる複雑な推論、詳細な分析、マルチモーダル理解に優れた性能を発揮します。

他の大規模言語モデルと同様に、Gemini 3 Pro プレビュー出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

Google Gemini 2.5 Pro

重要

Gemini 2.5 Pro に適用されるモデル開発者ライセンスと条件を参照してください。

エンドポイント名 : databricks-gemini-2.5-pro

Gemini 2.5 Pro は、Google が開発およびトレーニングした 100 万トークンのコンテキスト ウィンドウを備えたハイブリッド推論モデルです。Gemini 2.5 Pro の「ディープ シンクMode 」と組み込みオーディオ出力により、この製品は、エンタープライズ、研究、クリエイティブ アプリケーション向けの主要モデルとして際立っています。 幅広い入力とタスクにわたる複雑な推論、詳細な分析、マルチモーダル理解に優れた性能を発揮するように設計されています。Gemini 2.5 Pro の詳細をご覧ください

他の大規模言語モデルと同様に、Gemini 2.5 Pro の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

Google Gemini 2.5 Flash

重要

Gemini 2.5 Flash の適用可能なモデル開発者ライセンスと条件を参照してください。

エンドポイント名 : databricks-gemini-2.5-flash

Gemini 2.5 Flash は、Google によって開発およびトレーニングされた高速でコスト効率の高いマルチモーダル AI モデルです。これは、迅速でスケーラブルかつ手頃な価格の AI ソリューションを求める開発者や企業向けに設計された、Google 初の完全ハイブリッド推論モデルです。Gemini 2.5 Flash は、単一のコンテキストで最大 100 万個のトークンを処理できるため、非常に大きなドキュメントやデータセットを処理できます。Gemini 2.5 Flash は、チャットボット、データ抽出、翻訳、ドキュメント解析などのリアルタイムかつ大容量のアプリケーション向けに最適化されています。Gemini 2.5 Flash の詳細をご覧ください

他の大規模言語モデルと同様に、Gemini 2.5 の Flash 出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

Alibaba Cloud Qwen3-Next 80B A3B Instruct

エンドポイント名 : databricks-qwen3-next-80b-a3b-instruct

Qwen3-Next-80B-A3B-Instruct は、Alibaba Cloudによって構築およびトレーニングされた、命令に従うタスク用に最適化された非常に効率的な大規模言語モデルです。 このモデルは、非常に長いコンテキストを処理するように設計されており、マルチステップのワークフロー、RAG、高スループットで確定的な出力を必要とするエンタープライズ アプリケーションに最適です。

他の大規模言語モデルと同様に、Qwen3-Next 80B A3B Instruct 出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

OpenAI GPT OSS 120B

重要

OpenAI GPT OSS 120B は、 Apache 2.0 ライセンスに基づいて提供され、その条件に従います。Copyright (c) The Apache Software Foundation、All rights reserved。顧客は、該当するモデル ライセンスによるコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-gpt-oss-120b

GPT OSS 120B は、OpenAI によって構築およびトレーニングされた、思考の連鎖と調整可能な推論努力レベルを備えた最先端の推論モデルです。これは OpenAI の主力オープンウェイト モデルであり、128K トークンのコンテキスト ウィンドウを備えています。このモデルは、高品質の推論タスク用に構築されています。

他の大規模言語モデルと同様に、GPT OSS 120B の出力では一部の事実が省略され、場合によっては誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

OpenAI GPT OSS 20B

重要

OpenAI GPT OSS 20B は、 Apache 2.0 ライセンスに基づいて提供され、これに従います。Copyright (c) The Apache Software Foundation、All rights reserved。顧客は、該当するモデル ライセンスによるコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-gpt-oss-20b

GPT OSS 20B は、OpenAI によって構築およびトレーニングされた最先端の軽量推論モデルです。このモデルには 128K トークン コンテキスト ウィンドウがあり、リアルタイムのコパイロットとバッチ推論タスクに優れています。

他の大規模言語モデルと同様に、GPT OSS 20B の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

Google Gemma 3 12B

重要

Gemma 3 コミュニティ ライセンスおよび利用規定については、 適用可能なモデル開発者ライセンスおよび条件 を参照してください。

エンドポイント名 : databricks-gemma-3-12b

Gemma 3 12B は、Gemma 3 ファミリーの一部として Google によって開発された、120 億のマルチモーダルおよびビジョン言語モデルです。 Gemma 3 は最大 128K のトークン コンテキストを持ち、140 を超える言語の多言語サポートを提供します。このモデルは、テキストと画像の両方の入力を処理し、テキスト出力を生成するように設計されており、質問への回答を含む対話ユースケース、テキスト生成、画像理解タスクに最適化されています。

他の大規模言語モデルと同様に、Gemma 3 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

Meta Llama 4 Maverick

重要

Llama 4 コミュニティ ライセンスおよび利用規定ポリシーの適用に関しては、適用されるモデル開発者ライセンスおよび条件を参照してください。

エンドポイント名 : databricks-llama-4-maverick

Llama 4 Maverick は、Meta によって構築およびトレーニングされた最先端の大規模言語モデルです。これは、 Llama モデルファミリーの中で初めて、コンピュートの効率のために専門家のアーキテクチャを組み合わせて使用しました。 Llama 4 Maverickは複数の言語をサポートし、画像とテキストを正確に理解するユースケースに最適化されています。現在、Databricks による Llama 4 Maverick のサポートは、テキスト理解のユースケースに限定されています。Llama 4 Maverick の詳細をご覧ください。

他の大規模言語モデルと同様に、 Llama 4 の出力では一部の事実が省略され、誤った情報が生成される場合があります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

Meta Llama 3.3 70B Instruct

エンドポイント名 : databricks-meta-llama-3-3-70b-instruct

Meta-Llama-3.3-70B-Instructは、Metaによって構築およびトレーニングされた、コンテキスト128,000トークンの最先端の大規模言語モデルです。 このモデルは複数の言語をサポートし、対話のユースケースに最適化されています。 Meta Llama 3.3の詳細をご覧ください

他の大規模言語モデルと同様に、Llama-3の出力では一部の事実が省略され、誤った情報が生成される場合があります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

Anthropic Claude Sonnet 4.5

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-sonnet-4-5

Claude Sonnet 4.5 は、Anthropic の最も高度なハイブリッド推論モデルです。ほぼ瞬時の応答と、タスクの複雑さに基づいてより深い推論を行う拡張思考の 2 つのモードを提供します。Claude Sonnet 4.5 は、顧客対応エージェント、本番運用コーディング ワークフロー、大規模なコンテンツ生成など、実用的なスループットと高度な思考のバランスを必要とするアプリケーションに特化しています。

他の大規模言語モデルと同様に、Claude Sonnet 4.5 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内の AWS で Databricks によってホストされます。

Anthropic Claude Sonnet 4

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-sonnet-4

Claude Sonnet 4 は、Anthropic によって構築および訓練された最先端のハイブリッド推論モデルです。このモデルには、ほぼ即時の応答と、タスクの複雑さに基づいてより深い推論を行うための拡張思考の 2 つのモードがあります。Claude Sonnet 4は、コード開発、大規模コンテンツ分析、エージェントアプリケーション開発など、さまざまなタスクに最適化されています。

他の大規模言語モデルと同様に、Claude Sonnet 4 の出力では、一部の事実が省略されたり、誤った情報が生成されることがあります。Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内の AWS で Databricks によってホストされます。

Anthropic Claude Opus 4.1

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-opus-4-1

Claude Opus 4.1 は、Anthropic によって構築およびトレーニングされた最先端のハイブリッド推論モデルです。この汎用の大規模言語モデルは、複雑な推論とエンタープライズ規模の実際のアプリケーションの両方に対応するように設計されています。200K トークンのコンテキスト ウィンドウと 32K 出力トークン機能を備え、テキストと画像の入力をサポートします。このモデルは、コード生成、調査およびコンテンツ作成、継続的な人間の介入なしのマルチステップエージェントワークフローなどのタスクに優れています。

他の大規模言語モデルと同様に、Claude Opus 4.1 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内の AWS で Databricks によってホストされます。

Anthropic Claude 3.7 Sonnet

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-3.7-sonnet

Claude 3.7 Sonnetは、Anthropicによって構築および訓練された最先端のハイブリッド推論モデルです。これは、タスクの複雑さに基づいて推論を迅速に応答または拡張できる大規模言語モデルおよび推論モデルです。 拡張思考モードでは、Claude 3.7 Sonnetの推論ステップがユーザーに表示されます。Claude 3.7 Sonnetは、コード生成、数学的推論、命令追従などのさまざまなタスクに最適化されています。

他の大規模言語モデルと同様に、Claude 3.7 の出力では一部の事実が省略され、誤った情報が生成される場合があります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内の AWS で Databricks によってホストされます。

GTE Large (EN)

重要

GTE Large (En) は、 Apache 2.0 ライセンス、Copyright (c) The Apache Software Foundation, All rights reserved.お客様は、該当するモデルライセンスでコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-gte-large-en

General Text Embedding(GTE) は、任意のテキストを1024次元の埋め込みベクトルと8192トークンの埋め込みウィンドウにマップできるテキスト埋め込みモデルです。 これらのベクトルは、LLM のベクトル インデックスや、検索、分類、質問応答、クラスタリング、セマンティック検索などのタスクに使用できます。このエンドポイントは、モデルの英語版を提供し、正規化された埋め込みは生成しません。

埋め込みモデルは、取得拡張生成(RAG)のユースケースでLLMと組み合わせて使用すると特に効果的です。 GTE は、LLM のコンテキストで使用できる大きなドキュメント内の関連するテキストスニペットを見つけるために使用できます。

追加のリソース