Pesquisa na Web no Databricks
Esta página descreve a pesquisa na web do Databricks e como usá-la para fundamentar as respostas do modelo com informações temporais reais da web. A pesquisa na web está disponível para os modelos básicos do Gemini e OpenAI , disponibilizados por meio APIsde Modelos Básicos, e para os modelos Anthropic por meio do Protocolo de Contexto de Modelo (MCP).
O que é uma pesquisa na web?
A pesquisa na Web permite que os modelos de base recuperem informações atualizadas da internet durante a geração de respostas. Quando a pesquisa na web está ativada, o modelo pode pesquisar na web para encontrar informações relevantes e incorporá-las em sua resposta. Isso é útil para perguntas sobre eventos atuais, dados recentes ou qualquer tópico em que o conhecimento profundo do momento (tempo real informat) melhora a resposta.
Use a pesquisa na web
A forma de ativar a pesquisa na web depende do provedor do modelo e da API que você utiliza:
- Modelos Gemini : Use o parâmetro
google_searchcom a API Chat Completions ou a API Google Gemini. - Modelos OpenAI : Use a ferramenta
web_searchcom a API OpenAI Responses. - ModelosAnthropic : Utilize um servidor MCP de pesquisa na web, como o You.com do Databricks Marketplace.
A busca na web por modelos da OpenAI está disponível apenas através da API de Respostas. Não é compatível com a API de Complementos de Chat.
Modelos Gemini com a API de Complementos de Chat
Para habilitar a pesquisa na web para modelos Gemini usando a API Chat Completions, passe google_search como um parâmetro de nível superior no corpo da solicitação.
- Python
- REST API
import os
from openai import OpenAI
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
DATABRICKS_BASE_URL = os.environ.get('DATABRICKS_BASE_URL')
client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url=DATABRICKS_BASE_URL
)
response = client.chat.completions.create(
model="databricks-gemini-2-5-pro",
messages=[
{"role": "user", "content": "What are the best Italian restaurants in San Francisco?"}
],
extra_body={"google_search": {}}
)
print(response.choices[0].message.content)
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"messages": [
{"role": "user", "content": "What are the best Italian restaurants in San Francisco?"}
],
"google_search": {}
}' \
https://<workspace_host>.databricks.com/serving-endpoints/databricks-gemini-2-5-pro/invocations
Modelos Gemini com a API Gemini do Google
Para habilitar a pesquisa na web usando a API Google Gemini, passe google_search como ferramenta.
- Python
- REST API
from google import genai
from google.genai import types
import os
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
client = genai.Client(
api_key="databricks",
http_options=types.HttpOptions(
base_url="https://example.staging.cloud.databricks.com/serving-endpoints/gemini",
headers={
"Authorization": f"Bearer {DATABRICKS_TOKEN}",
},
),
)
response = client.models.generate_content(
model="databricks-gemini-2-5-pro",
contents=[
types.Content(
role="user",
parts=[types.Part(text="What are the best Italian restaurants in San Francisco?")],
),
],
config=types.GenerateContentConfig(
tools=[types.Tool(google_search=types.GoogleSearch())],
),
)
print(response.text)
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"contents": [
{
"role": "user",
"parts": [{"text": "What are the best Italian restaurants in San Francisco?"}]
}
],
"tools": [
{"google_search": {}}
]
}' \
https://<workspace_host>.databricks.com/serving-endpoints/gemini/v1beta/models/databricks-gemini-2-5-pro:generateContent
Modelos OpenAI com a API de Respostas
Para habilitar a pesquisa na web para modelos OpenAI, passe web_search como ferramenta usando a API OpenAI Responses.
- Python
- REST API
import os
from openai import OpenAI
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
DATABRICKS_BASE_URL = os.environ.get('DATABRICKS_BASE_URL')
client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url=DATABRICKS_BASE_URL
)
response = client.responses.create(
model="databricks-gpt-5",
input=[
{"role": "user", "content": "What are the best Italian restaurants in San Francisco?"}
],
tools=[{"type": "web_search"}]
)
print(response.output_text)
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"model": "databricks-gpt-5",
"input": [
{"role": "user", "content": "What are the best Italian restaurants in San Francisco?"}
],
"tools": [
{"type": "web_search"}
]
}' \
https://<workspace_host>.databricks.com/serving-endpoints/responses
ModelosAnthropic com MCP
A ferramenta de busca nativa da Anthropic não está disponível através das APIs do Databricks Foundation Model. Em vez disso, você pode adicionar pesquisa na web a modelos Anthropic usando o Protocolo de Contexto do Modelo (MCP) com um provedor de pesquisa como o You.com.
Configure o servidor MCP da You.com
- Navegue até Marketplace > Agentes > Servidores MCP no seu workspace Databricks .
- Procure por You.com e clique em Instalar .
- Configure a conexão:
- Nome da conexão : Insira um nome (por exemplo,
youcom_web_search). - Tokens de portador : Insira sua key API da You.com.
- Clique em Instalar .
- Conceda privilégios de USAR CONEXÃO aos usuários ou grupos apropriados em Catálogo > Conexões > [sua conexão] > Permissões .
Após a configuração, o servidor MCP fica disponível como uma ferramenta no AI Playground, em agentes e em outros clientes compatíveis com MCP. O URL do endpoint do proxy para sua conexão é:
https://<workspace_host>.databricks.com/api/2.0/mcp/external/<connection_name>
Usar com o código Claude
Se você usa o Claude Code com as APIs do Databricks Foundation Model, adicione o servidor You.com MCP para habilitar a pesquisa na web:
claude mcp add youcom-search \
--transport http \
--url "https://<workspace_host>.databricks.com/api/2.0/mcp/external/<connection_name>" \
--header "Authorization: Bearer <your-databricks-pat>"
Verifique se o servidor foi adicionado com claude mcp list.
Alternativamente, adicione o servidor diretamente a ~/.claude.json:
{
"mcpServers": {
"youcom-search": {
"type": "http",
"url": "https://<workspace_host>.databricks.com/api/2.0/mcp/external/<connection_name>",
"headers": {
"Authorization": "Bearer <your-databricks-pat>"
}
}
}
}
Modelos suportados
A pesquisa na web é compatível com todos os modelos de pagamento por token da Gemini e OpenAI . Consulte a disponibilidade por região nas APIs de modelos de base hospedadas no Databricks .
Modelos Gemini
databricks-gemini-3-1-prodatabricks-gemini-3-1-flash-litedatabricks-gemini-3-prodatabricks-gemini-3-flashdatabricks-gemini-2-5-prodatabricks-gemini-2-5-flash
modelos OpenAI
databricks-gpt-5-4databricks-gpt-5-4-minidatabricks-gpt-5-4-nanodatabricks-gpt-5-3-codexdatabricks-gpt-5-2databricks-gpt-5-2-codexdatabricks-gpt-5-1databricks-gpt-5-1-codex-maxdatabricks-gpt-5-1-codex-minidatabricks-gpt-5databricks-gpt-5-minidatabricks-gpt-5-nano
ModelosAnthropic (via MCP)
A pesquisa na Web via MCP é compatível com todos os modelos de fundamentos Anthropic que suportam o uso de ferramentas.
databricks-claude-sonnet-4-6databricks-claude-sonnet-4-5databricks-claude-opus-4-6databricks-claude-opus-4-5databricks-claude-opus-4-1databricks-claude-sonnet-4
Limitações
-
A busca na web está disponível apenas no endpoint do modelo de pagamento por tokens da Foundation. provisionamento Taxa de transferência endpoint não suporta pesquisa na web.
-
Os modelos externos não suportam pesquisa na web através do Databricks.
-
A pesquisa na Web não está disponível para espaços de trabalho com compliance HIPAA/BAA ativada, pois as consultas de pesquisa na Web são enviadas para serviços de pesquisa externos que não estão em conformidade com HIPAA .
-
Os resultados das buscas na web dependem da capacidade do modelo de formular consultas de busca e sintetizar resultados. A qualidade da resposta pode variar.
-
Para os modelos da OpenAI, a pesquisa na web está disponível apenas através da API de Respostas. A API Chat Completions não oferece suporte à pesquisa na web para modelos da OpenAI.
-
A busca na web por modelos Gemini não está disponível quando o processamento entre regiões está desativado. O Gemini não suporta o processamento de buscas geográficas, portanto, qualquer workspace com imposição de residência de dados é inelegível.
-
A busca na web por modelos OpenAI não está disponível quando o processamento entre regiões está desativado, a menos que o workspace esteja em uma região geográfica elegível (Américas ou Europa). A OpenAI oferece suporte ao processamento de buscas geográficas nessas regiões.