コーディングエージェントとの統合
ベータ版
この機能はベータ版です。アカウント管理者は、アカウント コンソールの [プレビュー] ページからこの機能へのアクセスを制御できます。 「Databricks プレビューの管理」を参照してください。
Databricks コーディング エージェントの統合により、Cursor、Gemini CLI、Codex CLI などのコーディング エージェントのアクセスと使用状況を管理できます。AI Gateway 上に構築されており、コーディング ツールのレート制限、使用状況追跡、推論テーブルを提供します。
特徴
- アクセス : 1 つの請求書で、さまざまなコーディング ツールとモデルに直接アクセスできます。
- 可観測性 : すべてのコーディング ツールの使用状況、支出、メトリクスを追跡するための単一の統合ダッシュボード。
- 統合ガバナンス : 管理者は、AI ゲートウェイを通じてモデルの権限とレート制限を直接管理できます。
要件
- お使いのアカウントで AI ゲートウェイ (ベータ版) プレビューが有効になっています。「Databricks プレビューの管理」を参照してください。
- AI Gateway (ベータ) がサポートされているリージョン内の Databricks ワークスペース。
- ワークスペースで Unity Catalog が有効になりました。「Unity Catalog のワークスペースを有効にする」を参照してください。
サポートされているエージェント
次のコーディング エージェントがサポートされています。
設定
Cursor
AI Gateway エンドポイントを使用するように Cursor を構成するには:
ステップ 1: ベース URL とAPIキーを構成する
-
Cursor を開き、 [設定] > [カーソル設定] > [モデル] > [API キー] に移動します。
-
OpenAI ベース URL のオーバーライドを 有効にして、URL を入力します。
https://<ai-gateway-url>/cursor/v1<ai-gateway-url>AI Gateway エンドポイント URL に置き換えます。 -
Databricksの個人アクセスを OpenAI APIキー フィールドに貼り付けます。
ステップ 2: カスタムモデルを追加する
- カーソル設定で + カスタム モデルの追加を クリックします。
- AI ゲートウェイのエンドポイント名を追加し、トグルを有効にします。
現在、Databricks によって作成された基盤モデル エンドポイントのみがサポートされています。
ステップ 3: 統合をテストする
Cmd+L(macOS) またはCtrl+L(Windows/Linux) で Ask モードを開き、モデルを選択します。- メッセージを送信してください。すべてのリクエストがDatabricksを経由するようになりました。
コーデックス CLI
ステップ 1: DATABRICKS_TOKEN 環境変数を設定する
export DATABRICKS_TOKEN=<databricks_pat_token>
ステップ 2: Codex クライアントを構成する
~/.codex/config.tomlで Codex 構成ファイルを作成または編集します:
profile = "default"
[profiles.default]
model_provider = "proxy"
model = "databricks-gpt-5-2"
[model_providers.proxy]
name = "Databricks Proxy"
base_url = "https://<ai-gateway-url>/openai/v1"
env_key = "DATABRICKS_TOKEN"
wire_api = "responses"
<ai-gateway-url> AI Gateway エンドポイント URL に置き換えます。
ジェミニCLI
ステップ 1: Gemini CLIの最新バージョンをインストールする
npm install -g @google/gemini-cli@nightly
ステップ 2: 環境変数を設定する
ファイル~/.gemini/.envを作成し、次の構成を追加します。詳細については、 Gemini CLI 認証ドキュメントを参照してください。
GEMINI_MODEL=databricks-gemini-2-5-flash
GOOGLE_GEMINI_BASE_URL=https://<ai-gateway-url>/gemini
GEMINI_API_KEY_AUTH_MECHANISM="bearer"
GEMINI_API_KEY=<databricks_pat_token>
<ai-gateway-url> AI Gateway エンドポイント URL に置き換え、 <databricks_pat_token>個人のアクセス ノートに置き換えます。
ダッシュボード
AI Gateway を通じてコーディング エージェントの使用状況が追跡されると、すぐに使用できるダッシュボードでメトリックを表示および監視できるようになります。
ダッシュボードにアクセスするには、AI ゲートウェイ ページから [ ダッシュボードの表示] を選択します。これにより、コーディング ツールの使用状況を示すグラフを含む、事前設定されたダッシュボードが作成されます。


OpenTelemetryデータ収集を設定する
Databricks 、コーディング エージェントからUnity Catalogで管理されるDeltaテーブルへの OpenTelemetry メトリックとログのエクスポートをサポートしています。 すべてのメトリクスは、OpenTelemetry 標準メトリクス プロトコルを使用してエクスポートされた時系列データであり、ログは OpenTelemetry ログ プロトコルを使用してエクスポートされます。
要件
- Databricks プレビューの OpenTelemetry が有効になりました。「Databricks プレビューの管理」を参照してください。
ステップ 1: Unity Catalogで OpenTelemetry テーブルを作成する
OpenTelemetry メトリクスおよびログ スキーマで事前設定されたUnity Catalogマネージドテーブルを作成します。
メトリクステーブル
CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_metrics (
name STRING,
description STRING,
unit STRING,
metric_type STRING,
gauge STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
value: DOUBLE,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT
>,
sum STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
value: DOUBLE,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT,
aggregation_temporality: STRING,
is_monotonic: BOOLEAN
>,
histogram STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
bucket_counts: ARRAY<LONG>,
explicit_bounds: ARRAY<DOUBLE>,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT,
min: DOUBLE,
max: DOUBLE,
aggregation_temporality: STRING
>,
exponential_histogram STRUCT<
attributes: MAP<STRING, STRING>,
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
scale: INT,
zero_count: LONG,
positive_bucket: STRUCT<
offset: INT,
bucket_counts: ARRAY<LONG>
>,
negative_bucket: STRUCT<
offset: INT,
bucket_counts: ARRAY<LONG>
>,
flags: INT,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
min: DOUBLE,
max: DOUBLE,
zero_threshold: DOUBLE,
aggregation_temporality: STRING
>,
summary STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
quantile_values: ARRAY<STRUCT<
quantile: DOUBLE,
value: DOUBLE
>>,
attributes: MAP<STRING, STRING>,
flags: INT
>,
metadata MAP<STRING, STRING>,
resource STRUCT<
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
resource_schema_url STRING,
instrumentation_scope STRUCT<
name: STRING,
version: STRING,
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
metric_schema_url STRING
) USING DELTA
TBLPROPERTIES (
'otel.schemaVersion' = 'v1'
)
ログテーブル
CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_logs (
event_name STRING,
trace_id STRING,
span_id STRING,
time_unix_nano LONG,
observed_time_unix_nano LONG,
severity_number STRING,
severity_text STRING,
body STRING,
attributes MAP<STRING, STRING>,
dropped_attributes_count INT,
flags INT,
resource STRUCT<
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
resource_schema_url STRING,
instrumentation_scope STRUCT<
name: STRING,
version: STRING,
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
log_schema_url STRING
) USING DELTA
TBLPROPERTIES (
'otel.schemaVersion' = 'v1'
)
ステップ 2: コーディング エージェントの環境変数を更新する
OpenTelemetry メトリクス サポートが有効になっているコーディング エージェントで、次の環境変数を設定します。
{
"OTEL_METRICS_EXPORTER": "otlp",
"OTEL_EXPORTER_OTLP_METRICS_PROTOCOL": "http/protobuf",
"OTEL_EXPORTER_OTLP_METRICS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/metrics",
"OTEL_EXPORTER_OTLP_METRICS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_metrics",
"OTEL_METRIC_EXPORT_INTERVAL": "10000",
"OTEL_LOGS_EXPORTER": "otlp",
"OTEL_EXPORTER_OTLP_LOGS_PROTOCOL": "http/protobuf",
"OTEL_EXPORTER_OTLP_LOGS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/logs",
"OTEL_EXPORTER_OTLP_LOGS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_logs",
"OTEL_LOGS_EXPORT_INTERVAL": "5000"
}
ステップ 3: コーディング エージェントを実行します。
データは 5 分以内にUnity Catalogテーブルに伝播されるはずです。