Pular para o conteúdo principal

Integre com agentes de codificação

info

Beta

Este recurso está em versão Beta. Os administradores da conta podem controlar o acesso a este recurso na página de pré-visualizações do console account . Veja as prévias do Gerenciador Databricks.

Com a integração do agente de codificação do Databricks, você pode gerenciar o acesso e o uso de agentes de codificação como Cursor, Gemini CLI e Codex CLI. Construído sobre AI Gateway, ele fornece limitação de taxa, acompanhamento de uso e tabelas de inferência para suas ferramentas de codificação.

recurso

  • Acesso : Acesso direto a diversas ferramentas e modelos de codificação, tudo em uma única fatura.
  • Observabilidade : Um painel único e unificado para monitorar o uso, os gastos e as métricas em todas as suas ferramentas de programação.
  • Governança unificada : os administradores podem gerenciar permissões de modelo e limites de taxa diretamente pelo AI Gateway.

Requisitos

Agentes apoiados

Os seguintes agentes de codificação são suportados:

Configurar

Cursor

Para configurar o Cursor para usar o endpoint do AI Gateway:

Passo 1: Configurar URL base e key API

  1. Abra o Cursor e navegue até Configurações > Configurações do Cursor > Modelos > ChaveAPI .

  2. Ative a opção "Substituir URL base do OpenAI" e insira o URL:

    https://<ai-gateway-url>/cursor/v1

    Substitua <ai-gateway-url> pela URL do endpoint do seu AI Gateway.

  3. Cole seu access token pessoal Databricks no campo da chave API OpenAI .

o passo 2: Adicionar modelos personalizados

  1. Clique em + Adicionar modelo personalizado nas configurações do cursor.
  2. Adicione o nome do endpoint do seu AI Gateway e ative a opção.
nota

Atualmente, apenas os endpoints do modelo de base criados Databrickssão suportados.

o passo 3: Teste a integração

  1. Abra o modo Ask com Cmd+L (macOS) ou Ctrl+L (Windows/Linux) e selecione seu modelo.
  2. Enviar uma mensagem. Todas as solicitações agora são encaminhadas pelo Databricks.

Codex CLI

o passo 1: Defina a variável de ambiente DATABRICKS_TOKEN

Bash
export DATABRICKS_TOKEN=<databricks_pat_token>

o passo 2: Configurar o cliente Codex

Crie ou edite o arquivo de configuração do Codex em ~/.codex/config.toml:

Toml
profile = "default"

[profiles.default]
model_provider = "proxy"
model = "databricks-gpt-5-2"

[model_providers.proxy]
name = "Databricks Proxy"
base_url = "https://<ai-gateway-url>/openai/v1"
env_key = "DATABRICKS_TOKEN"
wire_api = "responses"

Substitua <ai-gateway-url> pela URL do endpoint do seu AI Gateway.

Gemini CLI

Passo 1: Instale a versão mais recente do Gemini CLI

Bash
npm install -g @google/gemini-cli@nightly

o passo 2: Configurar variável de ambiente

Crie um arquivo ~/.gemini/.env e adicione a seguinte configuração. Consulte a documentação de autenticação da CLI do Gemini para obter mais detalhes.

GEMINI_MODEL=databricks-gemini-2-5-flash
GOOGLE_GEMINI_BASE_URL=https://<ai-gateway-url>/gemini
GEMINI_API_KEY_AUTH_MECHANISM="bearer"
GEMINI_API_KEY=<databricks_pat_token>

Substitua <ai-gateway-url> pelo URL endpoint AI Gateway e <databricks_pat_token> pelo seu access token pessoal.

Painel

Após o uso do agente de codificação ser rastreado pelo AI Gateway, você pode view e monitorar suas métricas no painel de controle pronto para uso.

Para acessar o painel de controle, selecione " Exibir painel de controle" na página do AI Gateway. Isso cria um painel pré-configurado com elementos gráficos para uso de ferramentas de codificação.

botão visualizar painel de controle

Painel do agente de codificação

Configurar a coleta de dados do OpenTelemetry

Databricks suporta a exportação de métricas e logs do OpenTelemetry de agentes de codificação para tabelas Delta Unity Catalog . Todos os métricas são dados de séries temporais exportados usando o protocolo métricas padrão do OpenTelemetry, e logs são exportados usando o protocolo logs do OpenTelemetry.

Requisitos

o passo 1: Criar tabelas OpenTelemetry no Unity Catalog

Crie tabelas de gerenciamento de Unity Catalog pré-configuradas com os esquemas de métricas e logs do OpenTelemetry.

Tabela de métricas

SQL
CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_metrics (
name STRING,
description STRING,
unit STRING,
metric_type STRING,
gauge STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
value: DOUBLE,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT
>,
sum STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
value: DOUBLE,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT,
aggregation_temporality: STRING,
is_monotonic: BOOLEAN
>,
histogram STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
bucket_counts: ARRAY<LONG>,
explicit_bounds: ARRAY<DOUBLE>,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT,
min: DOUBLE,
max: DOUBLE,
aggregation_temporality: STRING
>,
exponential_histogram STRUCT<
attributes: MAP<STRING, STRING>,
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
scale: INT,
zero_count: LONG,
positive_bucket: STRUCT<
offset: INT,
bucket_counts: ARRAY<LONG>
>,
negative_bucket: STRUCT<
offset: INT,
bucket_counts: ARRAY<LONG>
>,
flags: INT,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
min: DOUBLE,
max: DOUBLE,
zero_threshold: DOUBLE,
aggregation_temporality: STRING
>,
summary STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
quantile_values: ARRAY<STRUCT<
quantile: DOUBLE,
value: DOUBLE
>>,
attributes: MAP<STRING, STRING>,
flags: INT
>,
metadata MAP<STRING, STRING>,
resource STRUCT<
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
resource_schema_url STRING,
instrumentation_scope STRUCT<
name: STRING,
version: STRING,
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
metric_schema_url STRING
) USING DELTA
TBLPROPERTIES (
'otel.schemaVersion' = 'v1'
)

Tabela de logs

SQL
CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_logs (
event_name STRING,
trace_id STRING,
span_id STRING,
time_unix_nano LONG,
observed_time_unix_nano LONG,
severity_number STRING,
severity_text STRING,
body STRING,
attributes MAP<STRING, STRING>,
dropped_attributes_count INT,
flags INT,
resource STRUCT<
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
resource_schema_url STRING,
instrumentation_scope STRUCT<
name: STRING,
version: STRING,
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
log_schema_url STRING
) USING DELTA
TBLPROPERTIES (
'otel.schemaVersion' = 'v1'
)

Passo 2: Atualize as variáveis de ambiente no seu agente de codificação

Em qualquer agente de codificação com suporte a métricas OpenTelemetry ativado, configure a seguinte variável de ambiente.

JSON
{
"OTEL_METRICS_EXPORTER": "otlp",
"OTEL_EXPORTER_OTLP_METRICS_PROTOCOL": "http/protobuf",
"OTEL_EXPORTER_OTLP_METRICS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/metrics",
"OTEL_EXPORTER_OTLP_METRICS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_metrics",
"OTEL_METRIC_EXPORT_INTERVAL": "10000",
"OTEL_LOGS_EXPORTER": "otlp",
"OTEL_EXPORTER_OTLP_LOGS_PROTOCOL": "http/protobuf",
"OTEL_EXPORTER_OTLP_LOGS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/logs",
"OTEL_EXPORTER_OTLP_LOGS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_logs",
"OTEL_LOGS_EXPORT_INTERVAL": "5000"
}

o passo 3: execute seu agente de codificação.

Seus dados devem ser propagados para as tabelas Unity Catalog em até 5 minutos.

Próximos passos