メインコンテンツまでスキップ

コーディングエージェントとの統合

備考

ベータ版

この機能はベータ版です。アカウント管理者は、アカウント コンソールの [プレビュー] ページからこの機能へのアクセスを制御できます。 「Databricks プレビューの管理」を参照してください。

Databricks コーディング エージェントの統合により、Cursor、Gemini CLI、Codex CLI などのコーディング エージェントのアクセスと使用状況を管理できます。AI Gateway 上に構築されており、コーディング ツールのレート制限、使用状況追跡、推論テーブルを提供します。

特徴

  • アクセス : 1 つの請求書で、さまざまなコーディング ツールとモデルに直接アクセスできます。
  • 可観測性 : すべてのコーディング ツールの使用状況、支出、メトリクスを追跡するための単一の統合ダッシュボード。
  • 統合ガバナンス : 管理者は、AI ゲートウェイを通じてモデルの権限とレート制限を直接管理できます。

要件

サポートされているエージェント

次のコーディング エージェントがサポートされています。

設定

Cursor

AI Gateway エンドポイントを使用するように Cursor を構成するには:

ステップ 1: ベース URL とAPIキーを構成する

  1. Cursor を開き、 [設定] > [カーソル設定] > [モデル] > [API キー] に移動します。

  2. OpenAI ベース URL のオーバーライドを 有効にして、URL を入力します。

    https://<ai-gateway-url>/cursor/v1

    <ai-gateway-url> AI Gateway エンドポイント URL に置き換えます。

  3. Databricksの個人アクセスを OpenAI APIキー フィールドに貼り付けます。

ステップ 2: カスタムモデルを追加する

  1. カーソル設定で + カスタム モデルの追加を クリックします。
  2. AI ゲートウェイのエンドポイント名を追加し、トグルを有効にします。
注記

現在、Databricks によって作成された基盤モデル エンドポイントのみがサポートされています。

ステップ 3: 統合をテストする

  1. Cmd+L (macOS) またはCtrl+L (Windows/Linux) で Ask モードを開き、モデルを選択します。
  2. メッセージを送信してください。すべてのリクエストがDatabricksを経由するようになりました。

コーデックス CLI

ステップ 1: DATABRICKS_TOKEN 環境変数を設定する

Bash
export DATABRICKS_TOKEN=<databricks_pat_token>

ステップ 2: Codex クライアントを構成する

~/.codex/config.tomlで Codex 構成ファイルを作成または編集します:

Toml
profile = "default"

[profiles.default]
model_provider = "proxy"
model = "databricks-gpt-5-2"

[model_providers.proxy]
name = "Databricks Proxy"
base_url = "https://<ai-gateway-url>/openai/v1"
env_key = "DATABRICKS_TOKEN"
wire_api = "responses"

<ai-gateway-url> AI Gateway エンドポイント URL に置き換えます。

ジェミニCLI

ステップ 1: Gemini CLIの最新バージョンをインストールする

Bash
npm install -g @google/gemini-cli@nightly

ステップ 2: 環境変数を設定する

ファイル~/.gemini/.envを作成し、次の構成を追加します。詳細については、 Gemini CLI 認証ドキュメントを参照してください。

GEMINI_MODEL=databricks-gemini-2-5-flash
GOOGLE_GEMINI_BASE_URL=https://<ai-gateway-url>/gemini
GEMINI_API_KEY_AUTH_MECHANISM="bearer"
GEMINI_API_KEY=<databricks_pat_token>

<ai-gateway-url> AI Gateway エンドポイント URL に置き換え、 <databricks_pat_token>個人のアクセス ノートに置き換えます。

ダッシュボード

AI Gateway を通じてコーディング エージェントの使用状況が追跡されると、すぐに使用できるダッシュボードでメトリックを表示および監視できるようになります。

ダッシュボードにアクセスするには、AI ゲートウェイ ページから [ ダッシュボードの表示] を選択します。これにより、コーディング ツールの使用状況を示すグラフを含む、事前設定されたダッシュボードが作成されます。

ダッシュボードを表示ボタン

コーディングエージェントダッシュボード

OpenTelemetryデータ収集を設定する

Databricks 、コーディング エージェントからUnity Catalogで管理されるDeltaテーブルへの OpenTelemetry メトリックとログのエクスポートをサポートしています。 すべてのメトリクスは、OpenTelemetry 標準メトリクス プロトコルを使用してエクスポートされた時系列データであり、ログは OpenTelemetry ログ プロトコルを使用してエクスポートされます。

要件

ステップ 1: Unity Catalogで OpenTelemetry テーブルを作成する

OpenTelemetry メトリクスおよびログ スキーマで事前設定されたUnity Catalogマネージドテーブルを作成します。

メトリクステーブル

SQL
CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_metrics (
name STRING,
description STRING,
unit STRING,
metric_type STRING,
gauge STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
value: DOUBLE,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT
>,
sum STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
value: DOUBLE,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT,
aggregation_temporality: STRING,
is_monotonic: BOOLEAN
>,
histogram STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
bucket_counts: ARRAY<LONG>,
explicit_bounds: ARRAY<DOUBLE>,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
attributes: MAP<STRING, STRING>,
flags: INT,
min: DOUBLE,
max: DOUBLE,
aggregation_temporality: STRING
>,
exponential_histogram STRUCT<
attributes: MAP<STRING, STRING>,
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
scale: INT,
zero_count: LONG,
positive_bucket: STRUCT<
offset: INT,
bucket_counts: ARRAY<LONG>
>,
negative_bucket: STRUCT<
offset: INT,
bucket_counts: ARRAY<LONG>
>,
flags: INT,
exemplars: ARRAY<STRUCT<
time_unix_nano: LONG,
value: DOUBLE,
span_id: STRING,
trace_id: STRING,
filtered_attributes: MAP<STRING, STRING>
>>,
min: DOUBLE,
max: DOUBLE,
zero_threshold: DOUBLE,
aggregation_temporality: STRING
>,
summary STRUCT<
start_time_unix_nano: LONG,
time_unix_nano: LONG,
count: LONG,
sum: DOUBLE,
quantile_values: ARRAY<STRUCT<
quantile: DOUBLE,
value: DOUBLE
>>,
attributes: MAP<STRING, STRING>,
flags: INT
>,
metadata MAP<STRING, STRING>,
resource STRUCT<
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
resource_schema_url STRING,
instrumentation_scope STRUCT<
name: STRING,
version: STRING,
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
metric_schema_url STRING
) USING DELTA
TBLPROPERTIES (
'otel.schemaVersion' = 'v1'
)

ログテーブル

SQL
CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_logs (
event_name STRING,
trace_id STRING,
span_id STRING,
time_unix_nano LONG,
observed_time_unix_nano LONG,
severity_number STRING,
severity_text STRING,
body STRING,
attributes MAP<STRING, STRING>,
dropped_attributes_count INT,
flags INT,
resource STRUCT<
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
resource_schema_url STRING,
instrumentation_scope STRUCT<
name: STRING,
version: STRING,
attributes: MAP<STRING, STRING>,
dropped_attributes_count: INT
>,
log_schema_url STRING
) USING DELTA
TBLPROPERTIES (
'otel.schemaVersion' = 'v1'
)

ステップ 2: コーディング エージェントの環境変数を更新する

OpenTelemetry メトリクス サポートが有効になっているコーディング エージェントで、次の環境変数を設定します。

JSON
{
"OTEL_METRICS_EXPORTER": "otlp",
"OTEL_EXPORTER_OTLP_METRICS_PROTOCOL": "http/protobuf",
"OTEL_EXPORTER_OTLP_METRICS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/metrics",
"OTEL_EXPORTER_OTLP_METRICS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_metrics",
"OTEL_METRIC_EXPORT_INTERVAL": "10000",
"OTEL_LOGS_EXPORTER": "otlp",
"OTEL_EXPORTER_OTLP_LOGS_PROTOCOL": "http/protobuf",
"OTEL_EXPORTER_OTLP_LOGS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/logs",
"OTEL_EXPORTER_OTLP_LOGS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_logs",
"OTEL_LOGS_EXPORT_INTERVAL": "5000"
}

ステップ 3: コーディング エージェントを実行します。

データは 5 分以内にUnity Catalogテーブルに伝播されるはずです。

次のステップ