メインコンテンツまでスキップ

基盤モデルAPIで利用できるDatabricksがホストする基盤モデル

この記事では、Databricks 基盤モデル APIsでサポートされている最先端のオープン モデルについて説明します。

注記

これらのモデルのリージョンの可用性とサポートされている機能領域については、Mosaic AI Model Servingでサポートされている基盤モデルを参照してください。

これらのモデルにクエリ要求を送信するには、 Databricks ワークスペースで使用可能なトークン単位の従量課金エンドポイントを使用します。 使用するモデル・エンドポイントの名前については、 基盤モデルの使用 および トークン単位の従量課金サポート・モデル表 を参照してください。

インフラ単位の従量課金モードでのモデルのサポートに加えて、基盤モデルAPIsプロビジョニング スループット モードも提供します。 Databricks 、本番運用ワークロードにはプロビジョニング スループットを推奨します。 このモードは、仮想単位の従量支払いモードでサポートされる微調整されたカスタムの事前トレーニングされたモデルを含む、モデル アーキテクチャ ファミリのすべてのモデルをサポートします。 サポートされているアーキテクチャのリストについては、「プロビジョニング スループット プラットフォームAPIsを参照してください。

これらのサポートされているモデルは、 AI Playgroundを使用して操作できます。

OpenAI GPT-5.2

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

エンドポイント名 : databricks-gpt-5-2

GPT-5.2 は、OpenAI によって開発された推論機能を備えた汎用の大規模言語モデルです。このモデルは GPT-5.1 を直接基盤として構築されており、より高い精度、中程度から複雑なタスクでのトークン効率の向上、より意図的なスキャフォールディング推論を提供します。このモデルは、構造化抽出、複数ステップのワークフロー、マルチモーダル タスクに優れています。マルチモーダル入力をサポートし、最大出力 128K の合計 400K のネットワーク コンテキスト ウィンドウを備えています。

他の大規模言語モデルと同様に、GPT-5.2 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

OpenAI GPT-5.1

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

エンドポイント名 : databricks-gpt-5-1

GPT-5.1 は、OpenAI によって開発された推論機能を備えた汎用の大規模言語モデルです。このモデルには、素早い会話や深い推論のためのインスタント モードと思考モードの両方が搭載されており、単純なタスクや複雑なタスクに合わせて自動的に調整されます。このモデルは、コンテンツ作成、指導、技術サポート、コーディングに優れており、以前のバージョンよりも厳格なプロンプトエンジニアリングへの依存度が低くなっています。マルチモーダル入力をサポートし、最大出力 128K の合計 400K のネットワーク コンテキスト ウィンドウを備えています。 GPT-5.1 の詳細をご覧ください

他の大規模言語モデルと同様に、GPT-5.1 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

OpenAI GPT-5.1 コーデックス Max

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

注記

このモデルはAI Playgroundではサポートされていません。このモデルと対話するには、 Responses APIを使用できます。

エンドポイント名 : databricks-gpt-5-1-codex-max

GPT-5.1 Codex Max は、OpenAI の高性能コード特化型大規模言語モデルです。最高のコーディング パフォーマンスを備えた GPT-5.1 アーキテクチャに基づいて構築されており、複雑なコード生成、大規模なリファクタリング、エンタープライズ ソフトウェア エンジニアリング タスクに優れています。マルチモーダル入力をサポートし、最大出力 128K の合計 400K のネットワーク コンテキスト ウィンドウを備えています。

他の大規模言語モデルと同様に、GPT-5.1 Codex Max の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

OpenAI GPT-5.1 コーデックス ミニ

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

注記

このモデルはAI Playgroundではサポートされていません。このモデルと対話するには、 Responses APIを使用できます。

エンドポイント名 : databricks-gpt-5-1-codex-mini

GPT-5.1 Codex Mini は、OpenAI のコスト最適化されたコード特化型大規模言語モデルです。効率的なコーディング機能を備えた GPT-5.1 アーキテクチャに基づいて構築されており、コード補完、簡単なリファクタリング、日常的なコーディング タスクに優れています。マルチモーダル入力をサポートし、最大出力 128K の合計 400K のネットワーク コンテキスト ウィンドウを備えています。

他の大規模言語モデルと同様に、GPT-5.1 Codex Mini の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

OpenAI GPT-5

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

エンドポイント名 : databricks-gpt-5

GPT-5 は、OpenAI によって構築およびトレーニングされた最先端の汎用大規模言語モデルおよび推論モデルです。マルチモーダル入力をサポートし、最大出力 128K の合計 400K のネットワーク コンテキスト ウィンドウを備えています。 このモデルは、コーディング、チャット、推論、エージェント駆動型タスク用に構築されています。

他の大規模言語モデルと同様に、GPT-5 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

OpenAI GPT-5 mini

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

エンドポイント名 : databricks-gpt-5-mini

GPT-5 mini は、OpenAI によって構築およびトレーニングされた最先端の汎用大規模言語モデルおよび推論モデルです。マルチモーダル入力をサポートし、最大出力 128K の合計 400K のネットワーク コンテキスト ウィンドウを備えています。 このモデルは、推論とチャットのワークロードに対してコストが最適化されており、信頼性の高い推論、正確な言語、テキストと画像の迅速な出力を必要とする明確に定義されたタスクに優れています。

他の大規模言語モデルと同様に、GPT-5 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

OpenAI GPT-5 nano

重要

顧客は、OpenAI の利用規約の条項に確実に従う責任があります。

エンドポイント名 : databricks-gpt-5-nano

GPT-5 nano は、OpenAI によって構築およびトレーニングされた最先端の汎用大規模言語モデルおよび推論モデルです。マルチモーダル入力をサポートし、最大出力 128K の合計 400K のネットワーク コンテキスト ウィンドウを備えています。 このモデルは、単純な指示の遵守や日常的なビジネス プロセスやモバイル アプリケーションの分類などの高スループット タスクに優れています。

他の大規模言語モデルと同様に、GPT-5 の出力では一部の事実が省略され、誤った情報が生成されることがあります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

Google Gemini 3 フラッシュ

重要

Gemini 3 Flash の適用可能なモデル開発者ライセンスと条件を参照してください。

このモデルはグローバル エンドポイントでホストされており、地理的に離れたルーティングを有効にする必要があります。

エンドポイント名 : databricks-gemini-3-flash

Gemini 3 Flash は、Google が開発およびトレーニングした高速でコスト効率の高いマルチモーダル AI モデルです。このモデルは、品質を損なうことなく速度とスケールを提供し、複雑なビデオ分析、データ抽出、およびほぼリアルタイムでの視覚的な Q&A を実現する高度なマルチモーダル機能を備えています。Gemini 3 フラッシュは、優れた価格パフォーマンスと高速な速度を実現し、本番運用規模の導入を可能にします。 Gemini 3 Flash の詳細をご覧ください

他の大規模言語モデルと同様に、Gemini 3 の Flash 出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

Google Gemini 3 Pro プレビュー

重要

Gemini 3 Pro Preview に適用されるモデル開発者ライセンスと条件を参照してください。

このモデルはグローバル エンドポイントでホストされており、地理的に離れたルーティングを有効にする必要があります。

エンドポイント名 : databricks-gemini-3-pro

Gemini 3 Pro Preview は、Google が開発およびトレーニングした 100 万トークンのコンテキスト ウィンドウを備えた最先端のハイブリッド推論モデルです。Gemini 3 Pro の高度な推論機能と組み込みのマルチモーダル機能により、幅広い入力とタスクにわたる複雑な推論、詳細な分析、マルチモーダル理解に優れた性能を発揮します。

他の大規模言語モデルと同様に、Gemini 3 Pro プレビュー出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

Google Gemini 2.5 Pro

重要

Gemini 2.5 Pro に適用されるモデル開発者ライセンスと条件を参照してください。

エンドポイント名 : databricks-gemini-2-5-pro

Gemini 2.5 Pro は、Google が開発およびトレーニングした 100 万トークンのコンテキスト ウィンドウを備えたハイブリッド推論モデルです。Gemini 2.5 Pro の「ディープ シンクMode 」と組み込みオーディオ出力により、この製品は、エンタープライズ、研究、クリエイティブ アプリケーション向けの主要モデルとして際立っています。 幅広い入力とタスクにわたる複雑な推論、詳細な分析、マルチモーダル理解に優れた性能を発揮するように設計されています。Gemini 2.5 Pro の詳細をご覧ください

他の大規模言語モデルと同様に、Gemini 2.5 Pro の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

Google Gemini 2.5 Flash

重要

Gemini 2.5 Flash の適用可能なモデル開発者ライセンスと条件を参照してください。

エンドポイント名 : databricks-gemini-2-5-flash

Gemini 2.5 Flash は、Google によって開発およびトレーニングされた高速でコスト効率の高いマルチモーダル AI モデルです。これは、迅速でスケーラブルかつ手頃な価格の AI ソリューションを求める開発者や企業向けに設計された、Google 初の完全ハイブリッド推論モデルです。Gemini 2.5 Flash は、単一のコンテキストで最大 100 万個のトークンを処理できるため、非常に大きなドキュメントやデータセットを処理できます。Gemini 2.5 Flash は、チャットボット、データ抽出、翻訳、ドキュメント解析などのリアルタイムかつ大容量のアプリケーション向けに最適化されています。Gemini 2.5 Flash の詳細をご覧ください

他の大規模言語モデルと同様に、Gemini 2.5 の Flash 出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

Alibaba Cloud Qwen3-Next 80B A3B Instruct

エンドポイント名 : databricks-qwen3-next-80b-a3b-instruct

Qwen3-Next-80B-A3B-Instruct は、Alibaba Cloudによって構築およびトレーニングされた、命令に従うタスク用に最適化された非常に効率的な大規模言語モデルです。 このモデルは、非常に長いコンテキストを処理するように設計されており、マルチステップのワークフロー、RAG、高スループットで確定的な出力を必要とするエンタープライズ アプリケーションに最適です。

他の大規模言語モデルと同様に、Qwen3-Next 80B A3B Instruct 出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

OpenAI GPT OSS 120B

重要

OpenAI GPT OSS 120B は、 Apache 2.0 ライセンスに基づいて提供され、その条件に従います。Copyright (c) The Apache Software Foundation、All rights reserved。顧客は、該当するモデル ライセンスによるコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-gpt-oss-120b

GPT OSS 120B は、OpenAI によって構築およびトレーニングされた、思考の連鎖と調整可能な推論努力レベルを備えた最先端の推論モデルです。これは OpenAI の主力オープンウェイト モデルであり、128K トークンのコンテキスト ウィンドウを備えています。このモデルは、高品質の推論タスク用に構築されています。

他の大規模言語モデルと同様に、GPT OSS 120B の出力では一部の事実が省略され、場合によっては誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

OpenAI GPT OSS 20B

重要

OpenAI GPT OSS 20B は、 Apache 2.0 ライセンスに基づいて提供され、これに従います。Copyright (c) The Apache Software Foundation、All rights reserved。顧客は、該当するモデル ライセンスによるコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-gpt-oss-20b

GPT OSS 20B は、OpenAI によって構築およびトレーニングされた最先端の軽量推論モデルです。このモデルには 128K トークン コンテキスト ウィンドウがあり、リアルタイムのコパイロットとバッチ推論タスクに優れています。

他の大規模言語モデルと同様に、GPT OSS 20B の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

Google Gemma 3 12B

重要

Gemma 3 コミュニティ ライセンスおよび利用規定については、 適用可能なモデル開発者ライセンスおよび条件 を参照してください。

エンドポイント名 : databricks-gemma-3-12b

Gemma 3 12B は、Gemma 3 ファミリーの一部として Google によって開発された、120 億のマルチモーダルおよびビジョン言語モデルです。 Gemma 3 は最大 128K のトークン コンテキストを持ち、140 を超える言語の多言語サポートを提供します。このモデルは、テキストと画像の両方の入力を処理し、テキスト出力を生成するように設計されており、質問への回答を含む対話ユースケース、テキスト生成、画像理解タスクに最適化されています。

他の大規模言語モデルと同様に、Gemma 3 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

Meta Llama 4 Maverick

重要
  • Llama 4 コミュニティ ライセンスおよび利用規定ポリシーの適用に関しては、適用されるモデル開発者ライセンスおよび条件を参照してください。
  • Meta Llama 4 Maverick は、スタンス単位の従量支払いのため 2026 年 3 月 9 日に、プロビジョニング スループットのため 2026 年 6 月 9 日に廃止されます。 推奨される代替モデルと廃止期間中の移行方法に関するガイダンスについては、「廃止されたモデル」を参照してください。

エンドポイント名 : databricks-llama-4-maverick

Llama 4 Maverick は、Meta によって構築およびトレーニングされた最先端の大規模言語モデルです。これは、 Llama モデルファミリーの中で初めて、コンピュートの効率のために専門家のアーキテクチャを組み合わせて使用しました。 Llama 4 Maverickは複数の言語をサポートし、画像とテキストを正確に理解するユースケースに最適化されています。現在、Databricks による Llama 4 Maverick のサポートは、テキスト理解のユースケースに限定されています。Llama 4 Maverick の詳細をご覧ください。

他の大規模言語モデルと同様に、 Llama 4 の出力では一部の事実が省略され、誤った情報が生成される場合があります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

Meta Llama 3.3 70B Instruct

エンドポイント名 : databricks-meta-llama-3-3-70b-instruct

Meta-Llama-3.3-70B-Instructは、Metaによって構築およびトレーニングされた、コンテキスト128,000トークンの最先端の大規模言語モデルです。 このモデルは複数の言語をサポートし、対話のユースケースに最適化されています。 Meta Llama 3.3の詳細をご覧ください

他の大規模言語モデルと同様に、Llama-3の出力では一部の事実が省略され、誤った情報が生成される場合があります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

Anthropicクロード・ハイク 4.5

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-haiku-4-5

Claude Haiku 4.5 は、Anthropic の最速かつ最もコスト効率に優れたモデルであり、卓越した速度と効率で最高レベルのコーディング品質を実現します。チャット アシスタント、カスタマー サービス エージェント、ペア プログラミング、ラピッド プロトタイピングなどの、短期の低遅延アプリケーションに優れています。 このモデルは、コスト意識の高い本番運用の展開や、応答性の高いAIアシスタンスを必要とするエージェント システムに最適です。

他の大規模言語モデルと同様に、Claude Haiku 4.5 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

Anthropic Claude Sonnet 4.5

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-sonnet-4-5

Claude Sonnet 4.5 は、Anthropic の最も高度なハイブリッド推論モデルです。ほぼ瞬時の応答と、タスクの複雑さに基づいてより深い推論を行う拡張思考の 2 つのモードを提供します。Claude Sonnet 4.5 は、顧客対応エージェント、本番運用コーディング ワークフロー、大規模なコンテンツ生成など、実用的なスループットと高度な思考のバランスを必要とするアプリケーションに特化しています。

他の大規模言語モデルと同様に、Claude Sonnet 4.5 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

Anthropicクロード Opus 4.6

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-opus-4-6

Claude Opus 4.6 は、適応型思考機能を備えた Anthropic の最も優れたハイブリッド推論モデルです。このモデルは、最も要求の厳しいタスクに対して新しい最大努力レベルを導入し、最適なパフォーマンスを得るために高い努力をデフォルトとして設定します。Claude Opus 4.6 は、複雑な推論、詳細な分析、コード生成、調査、洗練されたマルチステップのワークフローに優れています。100 万トークンのコンテキスト ウィンドウを備えているため、広範な分析と包括的な出力の両方を必要とするエンタープライズ アプリケーションに最適です。

他の大規模言語モデルと同様に、Claude Opus 4.6 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

Anthropicクロード Opus 4.5

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-opus-4-5

Claude Opus 4.5 は、深い分析と拡張された思考を必要とする最も複雑なタスク向けに構築された、Anthropic の最も優れたハイブリッド推論モデルです。このモデルは、強力な汎用機能と高度な推論を組み合わせ、コード生成、調査、コンテンツ作成、洗練されたマルチステップのエージェントワークフローに優れています。Claude Opus 4.5 は、200K トークンのコンテキスト ウィンドウによるテキストとビジョンの入力をサポートしており、理解の幅と深さの両方が求められるエンタープライズ アプリケーションに最適です。

他の大規模言語モデルと同様に、Claude Opus 4.5 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

Anthropic Claude Sonnet 4

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-sonnet-4

Claude Sonnet 4 は、Anthropic によって構築および訓練された最先端のハイブリッド推論モデルです。このモデルには、ほぼ即時の応答と、タスクの複雑さに基づいてより深い推論を行うための拡張思考の 2 つのモードがあります。Claude Sonnet 4は、コード開発、大規模コンテンツ分析、エージェントアプリケーション開発など、さまざまなタスクに最適化されています。

他の大規模言語モデルと同様に、Claude Sonnet 4 の出力では、一部の事実が省略されたり、誤った情報が生成されることがあります。Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

Anthropic Claude Opus 4.1

重要

お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-claude-opus-4-1

Claude Opus 4.1 は、Anthropic によって構築およびトレーニングされた最先端のハイブリッド推論モデルです。この汎用の大規模言語モデルは、複雑な推論とエンタープライズ規模の実際のアプリケーションの両方に対応するように設計されています。200K トークンのコンテキスト ウィンドウと 32K 出力トークン機能を備え、テキストと画像の入力をサポートします。このモデルは、コード生成、調査およびコンテンツ作成、継続的な人間の介入なしのマルチステップエージェントワークフローなどのタスクに優れています。

他の大規模言語モデルと同様に、Claude Opus 4.1 の出力では一部の事実が省略され、誤った情報が生成される場合があります。Databricks では、精度が特に重要なシナリオでは、検索拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

Anthropic Claude 3.7 Sonnet

重要
  • お客様は、 Anthropicの 利用規約の条件に従ってコンプライアンスを確保する責任があります。

  • Anthropic Claude 3.7 Sonnet は 2026 年 4 月 12 日に廃止されます。推奨される代替モデルと廃止期間中の移行方法に関するガイダンスについては、「廃止されたモデル」を参照してください。

エンドポイント名 : databricks-claude-3-7-sonnet

Claude 3.7 Sonnetは、Anthropicによって構築および訓練された最先端のハイブリッド推論モデルです。これは、タスクの複雑さに基づいて推論を迅速に応答または拡張できる大規模言語モデルおよび推論モデルです。 拡張思考モードでは、Claude 3.7 Sonnetの推論ステップがユーザーに表示されます。Claude 3.7 Sonnetは、コード生成、数学的推論、命令追従などのさまざまなタスクに最適化されています。

他の大規模言語モデルと同様に、Claude 3.7 の出力では一部の事実が省略され、誤った情報が生成される場合があります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内で Databricks によってホストされます。

GTE Large (EN)

重要

GTE Large (En) は、 Apache 2.0 ライセンス、Copyright (c) The Apache Software Foundation, All rights reserved.お客様は、該当するモデルライセンスでコンプライアンスを確保する責任があります。

エンドポイント名 : databricks-gte-large-en

General Text Embedding(GTE) は、任意のテキストを1024次元の埋め込みベクトルと8192トークンの埋め込みウィンドウにマップできるテキスト埋め込みモデルです。 これらのベクトルは、LLM のベクトル インデックスや、検索、分類、質問応答、クラスタリング、セマンティック検索などのタスクに使用できます。このエンドポイントは、モデルの英語版を提供し、正規化された埋め込みは生成しません。

埋め込みモデルは、取得拡張生成(RAG)のユースケースでLLMと組み合わせて使用すると特に効果的です。 GTE は、LLM のコンテキストで使用できる大きなドキュメント内の関連するテキストスニペットを見つけるために使用できます。

追加のリソース