Integre com agentes de codificação
Beta
Este recurso está em versão Beta. Os administradores da conta podem controlar o acesso a este recurso na página de pré-visualizações do console account . Veja as prévias do Gerenciador Databricks.
Com a integração do agente de codificação do Databricks, você pode gerenciar o acesso e o uso de agentes de codificação como Cursor, Gemini CLI e Codex CLI. Construído sobre AI Gateway, ele fornece limitação de taxa, acompanhamento de uso e tabelas de inferência para suas ferramentas de codificação.
recurso
- Acesso : Acesso direto a diversas ferramentas e modelos de codificação, tudo em uma única fatura.
- Observabilidade : Um painel único e unificado para monitorar o uso, os gastos e as métricas em todas as suas ferramentas de programação.
- Governança unificada : os administradores podem gerenciar permissões de modelo e limites de taxa diretamente pelo AI Gateway.
Requisitos
- A versão beta (prévia) AI Gateway está ativada para sua account. Veja as prévias do Gerenciador Databricks.
- Um workspace Databricks em uma região compatível com oAI Gateway (Beta).
- Unity Catalog está habilitado para seu workspace. Consulte Ativar um workspace para Unity Catalog.
Agentes apoiados
Os seguintes agentes de codificação são suportados:
Configurar
Cursor
Para configurar o Cursor para usar o endpoint do AI Gateway:
Passo 1: Configurar URL base e key API
-
Abra o Cursor e navegue até Configurações > Configurações do Cursor > Modelos > ChaveAPI .
-
Ative a opção "Substituir URL base do OpenAI" e insira o URL:
https://<ai-gateway-url>/cursor/v1Substitua
<ai-gateway-url>pela URL do endpoint do seu AI Gateway. -
Cole seu access token pessoal Databricks no campo da chave API OpenAI .
o passo 2: Adicionar modelos personalizados
- Clique em + Adicionar modelo personalizado nas configurações do cursor.
- Adicione o nome do endpoint do seu AI Gateway e ative a opção.
Atualmente, apenas os endpoints do modelo de base criados Databrickssão suportados.
o passo 3: Teste a integração
- Abra o modo Ask com
Cmd+L(macOS) ouCtrl+L(Windows/Linux) e selecione seu modelo. - Enviar uma mensagem. Todas as solicitações agora são encaminhadas pelo Databricks.
Codex CLI
o passo 1: Defina a variável de ambiente DATABRICKS_TOKEN
export DATABRICKS_TOKEN=<databricks_pat_token>
o passo 2: Configurar o cliente Codex
Crie ou edite o arquivo de configuração do Codex em ~/.codex/config.toml:
profile = "default"
[profiles.default]
model_provider = "proxy"
model = "databricks-gpt-5-2"
[model_providers.proxy]
name = "Databricks Proxy"
base_url = "https://<ai-gateway-url>/openai/v1"
env_key = "DATABRICKS_TOKEN"
wire_api = "responses"
Substitua <ai-gateway-url> pela URL do endpoint do seu AI Gateway.
Gemini CLI
Passo 1: Instale a versão mais recente do Gemini CLI
npm install -g @google/gemini-cli@nightly
o passo 2: Configurar variável de ambiente
Crie um arquivo ~/.gemini/.env e adicione a seguinte configuração. Consulte a documentação de autenticação da CLI do Gemini para obter mais detalhes.
GEMINI_MODEL=databricks-gemini-2-5-flash
GOOGLE_GEMINI_BASE_URL=https://<ai-gateway-url>/gemini
GEMINI_API_KEY_AUTH_MECHANISM="bearer"
GEMINI_API_KEY=<databricks_pat_token>
Substitua <ai-gateway-url> pelo URL endpoint AI Gateway e <databricks_pat_token> pelo seu access token pessoal.
Painel
Após o uso do agente de codificação ser rastreado pelo AI Gateway, você pode view e monitorar suas métricas no painel de controle pronto para uso.
Para acessar o painel de controle, selecione " Exibir painel de controle" na página do AI Gateway. Isso cria um painel pré-configurado com elementos gráficos para uso de ferramentas de codificação.


Configurar a coleta de dados do OpenTelemetry
Databricks suporta a exportação de métricas e logs do OpenTelemetry de agentes de codificação para tabelas Delta Unity Catalog . Todos os métricas são dados de séries temporais exportados usando o protocolo métricas padrão do OpenTelemetry, e logs são exportados usando o protocolo logs do OpenTelemetry.
Requisitos
- Ativada a pré-visualização do OpenTelemetry no Databricks. Veja as prévias do Gerenciador Databricks.
o passo 1: Criar tabelas OpenTelemetry no Unity Catalog
Crie tabelas de gerenciamento de Unity Catalog pré-configuradas com os esquemas de métricas e logs do OpenTelemetry.
Tabela de métricas
CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_metrics (
name STRING,
description STRING,
unit STRING,
metric_type STRING,
gauge STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
value: DOUBLE,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT
>,
sum STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
value: DOUBLE,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT,
aggregation_temporality: STRING,
is_monotonic: BOOLEAN
>,
histogram STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
bucket_counts: ARRAY<LONG>,
explicit_bounds: ARRAY<DOUBLE>,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT,
min: DOUBLE,
max: DOUBLE,
aggregation_temporality: STRING
>,
exponential_histogram STRUCT<
attributes: MAP<STRING, STRING>,
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
scale: INT,
zero_count: LONG,
positive_bucket: STRUCT<
offset: INT,
bucket_counts: ARRAY<LONG>
>,
negative_bucket: STRUCT<
offset: INT,
bucket_counts: ARRAY<LONG>
>,
flags: INT,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
min: DOUBLE,
max: DOUBLE,
zero_threshold: DOUBLE,
aggregation_temporality: STRING
>,
summary STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
quantile_values: ARRAY<STRUCT<
quantile: DOUBLE,
value: DOUBLE
>>,
attributes: MAP<STRING, STRING>,
flags: INT
>,
metadata MAP<STRING, STRING>,
resource STRUCT<
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
resource_schema_url STRING,
instrumentation_scope STRUCT<
name: STRING,
version: STRING,
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
metric_schema_url STRING
) USING DELTA
TBLPROPERTIES (
'otel.schemaVersion' = 'v1'
)
Tabela de logs
CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_logs (
event_name STRING,
trace_id STRING,
span_id STRING,
time_unix_nano LONG,
observed_time_unix_nano LONG,
severity_number STRING,
severity_text STRING,
body STRING,
attributes MAP<STRING, STRING>,
dropped_attributes_count INT,
flags INT,
resource STRUCT<
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
resource_schema_url STRING,
instrumentation_scope STRUCT<
name: STRING,
version: STRING,
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
log_schema_url STRING
) USING DELTA
TBLPROPERTIES (
'otel.schemaVersion' = 'v1'
)
Passo 2: Atualize as variáveis de ambiente no seu agente de codificação
Em qualquer agente de codificação com suporte a métricas OpenTelemetry ativado, configure a seguinte variável de ambiente.
{
"OTEL_METRICS_EXPORTER": "otlp",
"OTEL_EXPORTER_OTLP_METRICS_PROTOCOL": "http/protobuf",
"OTEL_EXPORTER_OTLP_METRICS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/metrics",
"OTEL_EXPORTER_OTLP_METRICS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_metrics",
"OTEL_METRIC_EXPORT_INTERVAL": "10000",
"OTEL_LOGS_EXPORTER": "otlp",
"OTEL_EXPORTER_OTLP_LOGS_PROTOCOL": "http/protobuf",
"OTEL_EXPORTER_OTLP_LOGS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/logs",
"OTEL_EXPORTER_OTLP_LOGS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_logs",
"OTEL_LOGS_EXPORT_INTERVAL": "5000"
}
o passo 3: execute seu agente de codificação.
Seus dados devem ser propagados para as tabelas Unity Catalog em até 5 minutos.