Pular para o conteúdo principal

Pesquisa na Web no Databricks

Esta página descreve a pesquisa na web do Databricks e como usá-la para fundamentar as respostas do modelo com informações temporais reais da web. A pesquisa na web está disponível para os modelos básicos do Gemini e OpenAI , disponibilizados por meio APIsde Modelos Básicos, e para os modelos Anthropic por meio do Protocolo de Contexto de Modelo (MCP).

O que é uma pesquisa na web?

A pesquisa na Web permite que os modelos de base recuperem informações atualizadas da internet durante a geração de respostas. Quando a pesquisa na web está ativada, o modelo pode pesquisar na web para encontrar informações relevantes e incorporá-las em sua resposta. Isso é útil para perguntas sobre eventos atuais, dados recentes ou qualquer tópico em que o conhecimento profundo do momento (tempo real informat) melhora a resposta.

Use a pesquisa na web

A forma de ativar a pesquisa na web depende do provedor do modelo e da API que você utiliza:

importante

A busca na web por modelos da OpenAI está disponível apenas através da API de Respostas. Não é compatível com a API de Complementos de Chat.

Modelos Gemini com a API de Complementos de Chat

Para habilitar a pesquisa na web para modelos Gemini usando a API Chat Completions, passe google_search como um parâmetro de nível superior no corpo da solicitação.

Python
import os
from openai import OpenAI

DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
DATABRICKS_BASE_URL = os.environ.get('DATABRICKS_BASE_URL')

client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url=DATABRICKS_BASE_URL
)

response = client.chat.completions.create(
model="databricks-gemini-2-5-pro",
messages=[
{"role": "user", "content": "What are the best Italian restaurants in San Francisco?"}
],
extra_body={"google_search": {}}
)

print(response.choices[0].message.content)

Modelos Gemini com a API Gemini do Google

Para habilitar a pesquisa na web usando a API Google Gemini, passe google_search como ferramenta.

Python
from google import genai
from google.genai import types
import os

DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')

client = genai.Client(
api_key="databricks",
http_options=types.HttpOptions(
base_url="https://example.staging.cloud.databricks.com/serving-endpoints/gemini",
headers={
"Authorization": f"Bearer {DATABRICKS_TOKEN}",
},
),
)

response = client.models.generate_content(
model="databricks-gemini-2-5-pro",
contents=[
types.Content(
role="user",
parts=[types.Part(text="What are the best Italian restaurants in San Francisco?")],
),
],
config=types.GenerateContentConfig(
tools=[types.Tool(google_search=types.GoogleSearch())],
),
)

print(response.text)

Modelos OpenAI com a API de Respostas

Para habilitar a pesquisa na web para modelos OpenAI, passe web_search como ferramenta usando a API OpenAI Responses.

Python
import os
from openai import OpenAI

DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
DATABRICKS_BASE_URL = os.environ.get('DATABRICKS_BASE_URL')

client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url=DATABRICKS_BASE_URL
)

response = client.responses.create(
model="databricks-gpt-5",
input=[
{"role": "user", "content": "What are the best Italian restaurants in San Francisco?"}
],
tools=[{"type": "web_search"}]
)

print(response.output_text)

ModelosAnthropic com MCP

A ferramenta de busca nativa da Anthropic não está disponível através das APIs do Databricks Foundation Model. Em vez disso, você pode adicionar pesquisa na web a modelos Anthropic usando o Protocolo de Contexto do Modelo (MCP) com um provedor de pesquisa como o You.com.

Configure o servidor MCP da You.com

  1. Navegue até Marketplace > Agentes > Servidores MCP no seu workspace Databricks .
  2. Procure por You.com e clique em Instalar .
  3. Configure a conexão:
  • Nome da conexão : Insira um nome (por exemplo, youcom_web_search).
  • Tokens de portador : Insira sua key API da You.com.
  1. Clique em Instalar .
  2. Conceda privilégios de USAR CONEXÃO aos usuários ou grupos apropriados em Catálogo > Conexões > [sua conexão] > Permissões .

Após a configuração, o servidor MCP fica disponível como uma ferramenta no AI Playground, em agentes e em outros clientes compatíveis com MCP. O URL do endpoint do proxy para sua conexão é:

https://<workspace_host>.databricks.com/api/2.0/mcp/external/<connection_name>

Usar com o código Claude

Se você usa o Claude Code com as APIs do Databricks Foundation Model, adicione o servidor You.com MCP para habilitar a pesquisa na web:

Bash
claude mcp add youcom-search \
--transport http \
--url "https://<workspace_host>.databricks.com/api/2.0/mcp/external/<connection_name>" \
--header "Authorization: Bearer <your-databricks-pat>"

Verifique se o servidor foi adicionado com claude mcp list.

Alternativamente, adicione o servidor diretamente a ~/.claude.json:

JSON
{
"mcpServers": {
"youcom-search": {
"type": "http",
"url": "https://<workspace_host>.databricks.com/api/2.0/mcp/external/<connection_name>",
"headers": {
"Authorization": "Bearer <your-databricks-pat>"
}
}
}
}

Modelos suportados

A pesquisa na web é compatível com todos os modelos de pagamento por token da Gemini e OpenAI . Consulte a disponibilidade por região nas APIs de modelos de base hospedadas no Databricks .

Modelos Gemini

  • databricks-gemini-3-1-pro
  • databricks-gemini-3-1-flash-lite
  • databricks-gemini-3-pro
  • databricks-gemini-3-flash
  • databricks-gemini-2-5-pro
  • databricks-gemini-2-5-flash

modelos OpenAI

  • databricks-gpt-5-4
  • databricks-gpt-5-4-mini
  • databricks-gpt-5-4-nano
  • databricks-gpt-5-3-codex
  • databricks-gpt-5-2
  • databricks-gpt-5-2-codex
  • databricks-gpt-5-1
  • databricks-gpt-5-1-codex-max
  • databricks-gpt-5-1-codex-mini
  • databricks-gpt-5
  • databricks-gpt-5-mini
  • databricks-gpt-5-nano

ModelosAnthropic (via MCP)

A pesquisa na Web via MCP é compatível com todos os modelos de fundamentos Anthropic que suportam o uso de ferramentas.

  • databricks-claude-sonnet-4-6
  • databricks-claude-sonnet-4-5
  • databricks-claude-opus-4-6
  • databricks-claude-opus-4-5
  • databricks-claude-opus-4-1
  • databricks-claude-sonnet-4

Limitações

  • A busca na web está disponível apenas no endpoint do modelo de pagamento por tokens da Foundation. provisionamento Taxa de transferência endpoint não suporta pesquisa na web.

  • Os modelos externos não suportam pesquisa na web através do Databricks.

  • A pesquisa na Web não está disponível para espaços de trabalho com compliance HIPAA/BAA ativada, pois as consultas de pesquisa na Web são enviadas para serviços de pesquisa externos que não estão em conformidade com HIPAA .

  • Os resultados das buscas na web dependem da capacidade do modelo de formular consultas de busca e sintetizar resultados. A qualidade da resposta pode variar.

  • Para os modelos da OpenAI, a pesquisa na web está disponível apenas através da API de Respostas. A API Chat Completions não oferece suporte à pesquisa na web para modelos da OpenAI.

  • A busca na web por modelos Gemini não está disponível quando o processamento entre regiões está desativado. O Gemini não suporta o processamento de buscas geográficas, portanto, qualquer workspace com imposição de residência de dados é inelegível.

  • A busca na web por modelos OpenAI não está disponível quando o processamento entre regiões está desativado, a menos que o workspace esteja em uma região geográfica elegível (Américas ou Europa). A OpenAI oferece suporte ao processamento de buscas geográficas nessas regiões.

Recursos adicionais