Pular para o conteúdo principal

Consultar com a API de Respostas da OpenAI

importante

A API de Respostas é compatível apenas com os modelos básicos de pagamento por token OpenAI e com modelos externos. Para uma API unificada que funcione em todos os provedores, use a API Chat Completions.

A API OpenAI Responses é uma alternativa à API Chat Completions que fornece recursos adicionais para os modelos OpenAI , incluindo ferramentas personalizadas e fluxo de trabalho em várias etapas.

Requisitos

Exemplos de consulta

Os exemplos nesta seção mostram como consultar um endpoint de pagamento por token API do Foundation Model usando a API de Respostas OpenAI .

Para usar a API OpenAI Responses, especifique o nome endpoint do modelo de serviço como a entrada model .

Python
from databricks_openai import DatabricksOpenAI

client = DatabricksOpenAI()

response = client.responses.create(
model="databricks-gpt-5",
input=[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "What is a mixture of experts model?",
}
],
max_output_tokens=256
)

Ferramentas personalizadas

Ferramentas personalizadas permitem que o modelo retorne strings arbitrárias em vez de argumentos de função formatados em JSON . Isso é útil para geração de código, aplicação de correções ou outros casos de uso em que JSON estruturado não é necessário.

nota

As ferramentas personalizadas são suportadas apenas com modelos da série GPT-5 (databricks-gpt-5, databricks-gpt-5-1, databricks-gpt-5-2) através da API de Respostas.

Python
from databricks_openai import DatabricksOpenAI

client = DatabricksOpenAI()

response = client.responses.create(
model="databricks-gpt-5",
input=[{"role": "user", "content": "Write a Python function to calculate factorial"}],
tools=[
{
"type": "custom",
"name": "code_exec",
"description": "Executes arbitrary Python code. Return only valid Python code."
}
],
max_output_tokens=1024
)

ferramentas integradas

As ferramentas integradas permitem que o modelo invoque funcionalidades fornecidas pela plataforma sem exigir que você implemente o backend da ferramenta por conta própria. Essas ferramentas retornam resultados estruturados e são totalmente controladas pela plataforma.

Python
from databricks_openai import DatabricksOpenAI

client = DatabricksOpenAI()

response = client.responses.create(
model="databricks-gpt-5",
input=[{
"role": "user",
"content": "Add input validation to the factorial function in main.py."
}],
tools=[
{
"type": "apply_patch"
}
],
max_output_tokens=1024
)

print(response.output_text)

Modelos suportados

modelos de fundação hospedados no Databricks

  • databricks-gpt-5-2
  • databricks-gpt-5-1
  • databricks-gpt-5-1-codex-max
  • databricks-gpt-5-1-codex-mini
  • databricks-gpt-5
  • databricks-gpt-5-mini
  • databricks-gpt-5-nano

Modelos externos

  • provedor de modelos da OpenAI
  • provedor de modelos do Azure OpenAI

Limitações

As seguintes limitações aplicam-se apenas aos modelos de fundação com pagamento por token . Os modelos externos são compatíveis com todos os parâmetros e ferramentas da API de Respostas.

Os seguintes parâmetros não são suportados e retornam um erro 400 se especificados:

  • background — O processamento em segundo plano não é suportado.
  • store — Respostas armazenadas não são suportadas.
  • previous_response_id — Respostas armazenadas não são suportadas.
  • service_tier — a seleção da camada de serviço é gerenciada pelo Databricks.

Os seguintes tipos de ferramentas são suportados para modelos de fundação de pagamento por tokens:

  • function — Chamada de função estruturada tradicional
  • custom — Ferramentas personalizadas definidas pelo usuário
  • apply_patch — Operações de correção de código
  • shell — execução de comandos do shell
  • image_generation — Geração de imagens
  • mcp — Ferramentas do Protocolo de Contexto do Modelo

Recursos adicionais