Google Gemini API によるクエリ
重要
Google Gemini API 、Gemini 社内単位の従量課金基盤モデルおよび外部モデルとのみ互換性があります。 すべてのプロバイダーで動作する統一されたAPIについては、チャット完了APIを使用してください。
Google Gemini API は、Databricks 上の Gemini モデルにネイティブの Google AI SDK 互換性を提供します。Gemini 固有の機能が必要な場合、または既存の Google AI SDK コードを移行する場合は、この API を使用します。
要件
- 要件を参照してください。
google-genaiパッケージをコンピュートにインストールします。
クエリの例
次の例は、Google Gemini APIを使用して基盤モデルAPI正式単位の従量課金エンドポイントをクエリする方法を示しています。
- Python
- REST API
Python
from google import genai
from google.genai import types
import os
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
client = genai.Client(
api_key="databricks",
http_options=types.HttpOptions(
base_url="https://example.staging.cloud.databricks.com/serving-endpoints/gemini",
headers={
"Authorization": f"Bearer {DATABRICKS_TOKEN}",
},
),
)
response = client.models.generate_content(
model="databricks-gemini-2-5-pro",
contents=[
types.Content(
role="user",
parts=[types.Part(text="What is a mixture of experts model?")],
),
],
config=types.GenerateContentConfig(
max_output_tokens=256,
),
)
print(response.text)
Bash
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"contents": [
{
"role": "user",
"parts": [{"text": "What is a mixture of experts model?"}]
}
],
"generationConfig": {
"maxOutputTokens": 256
}
}' \
https://<workspace_host>.databricks.com/serving-endpoints/gemini/v1beta/models/databricks-gemini-2-5-pro:generateContent
サポートされているモデル
Databricks がホストする基盤モデル
databricks-gemini-3-1-prodatabricks-gemini-3-1-flash-litedatabricks-gemini-3-prodatabricks-gemini-3-flashdatabricks-gemini-2-5-prodatabricks-gemini-2-5-flash
外部モデル
- Googleモデルプロバイダー