メインコンテンツまでスキップ

Databricksでのウェブ検索

このページでは、Databricks の Web 検索機能と、Web からのリアルタイム情報に基づいてモデルの応答を検証する方法について説明します。Web 検索は、Gemini およびOpenAI基盤モデルでは基盤モデルAPIsを通じて提供され、 AnthropicモデルではModel Context Protocol (MCP)を通じて利用できます。

ウェブ検索とは何ですか?

Web 検索により、基盤モデルは応答生成中にインターネットから最新の情報を取得できます。 ウェブ検索が有効になっている場合、モデルはウェブを検索して関連情報を見つけ、それを応答に組み込むことができます。これは、時事問題、最新データ、またはリアルタイムの情報によって回答が改善されるあらゆるトピックに関する質問に役立ちます。

ウェブ検索を使用する

ウェブ検索を有効にする方法は、使用するモデルプロバイダーとAPIによって異なります。

重要

OpenAIモデルのウェブ検索は、Responses APIを通じてのみ利用可能です。チャット完了APIではサポートされていません。

GeminiモデルとChat Completions API

Chat Completions APIを使用して Gemini モデルの Web 検索を有効にするには、リクエスト本文にトップレベルの としてgoogle_searchを渡します。

Python
import os
from openai import OpenAI

DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
DATABRICKS_BASE_URL = os.environ.get('DATABRICKS_BASE_URL')

client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url=DATABRICKS_BASE_URL
)

response = client.chat.completions.create(
model="databricks-gemini-2-5-pro",
messages=[
{"role": "user", "content": "What are the best Italian restaurants in San Francisco?"}
],
extra_body={"google_search": {}}
)

print(response.choices[0].message.content)

Google Gemini API を使用した Gemini モデル

Google Gemini APIを使用したウェブ検索を有効にするには、ツールとしてgoogle_searchを渡します。

Python
from google import genai
from google.genai import types
import os

DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')

client = genai.Client(
api_key="databricks",
http_options=types.HttpOptions(
base_url="https://example.staging.cloud.databricks.com/serving-endpoints/gemini",
headers={
"Authorization": f"Bearer {DATABRICKS_TOKEN}",
},
),
)

response = client.models.generate_content(
model="databricks-gemini-2-5-pro",
contents=[
types.Content(
role="user",
parts=[types.Part(text="What are the best Italian restaurants in San Francisco?")],
),
],
config=types.GenerateContentConfig(
tools=[types.Tool(google_search=types.GoogleSearch())],
),
)

print(response.text)

OpenAIモデルとResponses API

OpenAIモデルのウェブ検索を有効にするには、 OpenAI Responses APIを使用してツールとしてweb_searchを渡します。

Python
import os
from openai import OpenAI

DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
DATABRICKS_BASE_URL = os.environ.get('DATABRICKS_BASE_URL')

client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url=DATABRICKS_BASE_URL
)

response = client.responses.create(
model="databricks-gpt-5",
input=[
{"role": "user", "content": "What are the best Italian restaurants in San Francisco?"}
],
tools=[{"type": "web_search"}]
)

print(response.output_text)

MCPを用いたAnthropicモデル

Anthropicのネイティブ Web 検索ツールは、 DatabricksインフラストラクチャモデルAPIsからは利用できません。 代わりに、You.comなどの検索プロバイダーとモデルコンテキストプロトコル(MCP)を使用して、Anthropicモデルにウェブ検索機能を追加できます。

You.com MCPサーバーをセットアップする

  1. Databricksワークスペースで、 Marketplace > [エージェント] > [MCP サーバー] に移動します。
  2. You.com を検索して、 「インストール」 をクリックしてください。
  3. 接続を設定する:
  • 接続名 :名前を入力してください(例: youcom_web_search )。
  • ベアラートークン :You.com APIキーを入力してください。
  1. [ インストール ] をクリックします。
  2. カタログ > 接続 > [接続] > アクセス許可 で、適切なユーザーまたはグループに USE CONNECTION 権限を付与します。

セットアップが完了すると、MCPサーバーはAI Playground、エージェント、およびその他のMCP互換クライアントのツールとして利用できるようになります。接続に使用するプロキシエンドポイントURLは以下のとおりです。

https://<workspace_host>.databricks.com/api/2.0/mcp/external/<connection_name>

Claude Code と併用してください。

Databricks基盤モデルAPIsで Claude Code を使用する場合は、You.com MCP サーバーを追加して Web 検索を有効にします。

Bash
claude mcp add youcom-search \
--transport http \
--url "https://<workspace_host>.databricks.com/api/2.0/mcp/external/<connection_name>" \
--header "Authorization: Bearer <your-databricks-pat>"

サーバーがclaude mcp listで追加されたことを確認してください。

または、サーバーを~/.claude.jsonに直接追加します。

JSON
{
"mcpServers": {
"youcom-search": {
"type": "http",
"url": "https://<workspace_host>.databricks.com/api/2.0/mcp/external/<connection_name>",
"headers": {
"Authorization": "Bearer <your-databricks-pat>"
}
}
}
}

対応モデル

Web 検索は、すべての Gemini およびOpenAI無償単位の従量課金基盤モデルでサポートされています。 利用可能なリージョンについては、基盤モデルAPIsで利用可能なDatabricksホスト型基盤モデルを参照してください。

ジェミニモデル

  • databricks-gemini-3-1-pro
  • databricks-gemini-3-1-flash-lite
  • databricks-gemini-3-pro
  • databricks-gemini-3-flash
  • databricks-gemini-2-5-pro
  • databricks-gemini-2-5-flash

OpenAIモデル

  • databricks-gpt-5-4
  • databricks-gpt-5-4-mini
  • databricks-gpt-5-4-nano
  • databricks-gpt-5-3-codex
  • databricks-gpt-5-2
  • databricks-gpt-5-2-codex
  • databricks-gpt-5-1
  • databricks-gpt-5-1-codex-max
  • databricks-gpt-5-1-codex-mini
  • databricks-gpt-5
  • databricks-gpt-5-mini
  • databricks-gpt-5-nano

Anthropicモデル(MCP経由)

MCP による Web 検索は、ツールの使用をサポートするすべてのAnthropic基盤モデルでサポートされています。

  • databricks-claude-sonnet-4-6
  • databricks-claude-sonnet-4-5
  • databricks-claude-opus-4-6
  • databricks-claude-opus-4-5
  • databricks-claude-opus-4-1
  • databricks-claude-sonnet-4

制限事項

  • Web 検索は、仮想単位の従量課金基盤モデル エンドポイントでのみ利用できます。 プロビジョニングされたスループットエンドポイントは、ウェブ検索をサポートしていません。

  • 外部モデルはDatabricksを介したウェブ検索をサポートしていません。

  • Web 検索クエリは HIPPA に準拠していない外部検索サービスに送信されるため、HIPPA/BAA コンプライアンスが有効になっているワークスペースでは Web 検索を利用できません。

  • ウェブ検索結果は、モデルが検索クエリを作成し、結果を統合する能力に依存する。回答の質は異なる場合があります。

  • OpenAIモデルの場合、ウェブ検索はResponses APIを通じてのみ利用可能です。チャット完了APIは、OpenAIモデルのウェブ検索をサポートしていません。

  • 地域間処理が無効になっている場合、ジェミニモデルのウェブ検索は利用できません。Geminiは地理的内検索処理をサポートしていないため、データ所在地の制約が適用されるワークスペースは対象外となります。

  • 地域をまたいだ処理が無効になっている場合、ワークスペースが対象地域(南北アメリカまたはヨーロッパ)にない限り、OpenAIモデルのWeb検索は利用できません。OpenAIは、これらの地域における地理空間検索処理をサポートしています。

その他のリソース