課金利用ログ schema (legacy)
この記事には、重大な制限がある従来の使用状況ログに関する詳細が記載されています。
これらのログには、無理ストレージ、サーバレス ネットワーキング、またはその他の非 DBU ベースの SKU からの料金は含まれません。 たとえば、次の SKU は従来の使用状況ログには含まれません。
INTERNET_EGRESS_FROM_US_WEST_OREGONINTER_REGION_EGRESS_FROM_US_WEST_OREGONPUBLIC_CONNECTIVITY_DATA_PROCESSED_US_WEST_OREGONENTERPRISE_DATABRICKS_STORAGE_US_WEST_OREGON
Databricks 、すべての製品と SKU の完全な使用状況データにアクセスしてクエリを実行するには、課金利用システム テーブルを使用することをお勧めします。
この記事では、アカウント コンソールからダウンロードした使用状況ログ データの読み取りと分析の方法について説明します。
課金利用は、アカウントコンソールで直接閲覧・ダウンロードできるほか、アカウント APIを使用してもよろしくお願いします。
CSV ファイル スキーマ
列 | タイプ | 説明 | 例 |
|---|---|---|---|
workspaceId | string | ワークスペースのID。 |
|
タイムスタンプ | datetime | 提供された利用時間の終了時刻。 |
|
ClusterID | string | クラスター(クラスターの場合)またはウェアハウス(SQL ウェアハウスの場合)のID | クラスターの例: |
clusterName | string | クラスター/ウェアハウスのユーザー指定の名前。 |
|
clusterNodeType | string | クラスター/ウェアハウスのインスタンスタイプ。 | クラスターの例: |
clusterOwnerUserId | string | クラスター/ウェアハウスを作成したユーザーのID。 |
|
clusterCustomTags | string(「"」がエスケープされたJSON) | この時間にクラスター/ウェアハウスに関連付けられたカスタムタグ。 |
|
sku | string | 請求 SKU。 値の一覧については、 請求 SKU の表 を参照してください。 |
|
dbus | double | この時間にユーザーが使用したDBU数。 |
|
machineHours | double | クラスター/ウェアハウス内のすべてのコンテナで使用されたマシン時間の合計。 |
|
clusterOwnerUserName | string | クラスター/ウェアハウスを作成したユーザーのユーザー名(Eメールアドレス)。 |
|
tags | string(「"」がエスケープされたJSON) | この時間中のクラスターに関連付けられたデフォルトおよびカスタムクラスター/ウェアハウスタグ、およびデフォルトおよびカスタムインスタンスプールタグ(該当する場合)。 クラスタータグ、ウェアハウス タグ、およびプール タグを参照してください。これは、 |
|
請求 SKU
AWS_ENHANCED_SECURITY_AND_COMPLIANCEENTERPRISE_ALL_PURPOSE_COMPUTEENTERPRISE_ALL_PURPOSE_COMPUTE_(PHOTON)ENTERPRISE_DLT_CORE_COMPUTEENTERPRISE_DLT_CORE_COMPUTE_(PHOTON)ENTERPRISE_DLT_PRO_COMPUTEENTERPRISE_DLT_PRO_COMPUTE_(PHOTON)ENTERPRISE_DLT_ADVANCED_COMPUTEENTERPRISE_DLT_ADVANCED_COMPUTE_(PHOTON)ENTERPRISE_JOBS_COMPUTEENTERPRISE_JOBS_COMPUTE_(PHOTON)ENTERPRISE_JOBS_LIGHT_COMPUTEENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_US_EAST_N_VIRGINIAENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_US_EAST_OHIOENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_US_WEST_OREGONENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_CANADAENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_EUROPE_IRELANDENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_EUROPE_FRANKFURTENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_AP_SINGAPOREENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_AP_SYDNEYENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_EAST_N_VIRGINIAENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_EAST_OHIOENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_WEST_OREGONENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_CANADAENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_EUROPE_IRELANDENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_EUROPE_FRANKFURTENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_AP_SINGAPOREENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_AP_SYDNEYENTERPRISE_SERVERLESS_SQL_COMPUTE_US_EAST_N_VIRGINIAENTERPRISE_SERVERLESS_SQL_COMPUTE_US_WEST_OREGONENTERPRISE_SERVERLESS_SQL_COMPUTE_EUROPE_IRELANDENTERPRISE_SERVERLESS_SQL_COMPUTE_AP_SYDNEYENTERPRISE_SQL_COMPUTEENTERPRISE_SQL_PRO_COMPUTE_US_EAST_N_VIRGINIAENTERPRISE_SQL_PRO_COMPUTE_US_EAST_OHIOENTERPRISE_SQL_PRO_COMPUTE_US_WEST_OREGONENTERPRISE_SQL_PRO_COMPUTE_US_WEST_CALIFORNIAENTERPRISE_SQL_PRO_COMPUTE_CANADAENTERPRISE_SQL_PRO_COMPUTE_SA_BRAZILENTERPRISE_SQL_PRO_COMPUTE_EUROPE_IRELANDENTERPRISE_SQL_PRO_COMPUTE_EUROPE_FRANKFURTENTERPRISE_SQL_PRO_COMPUTE_EUROPE_LONDONENTERPRISE_SQL_PRO_COMPUTE_EUROPE_FRANCEENTERPRISE_SQL_PRO_COMPUTE_AP_SYDNEYENTERPRISE_SQL_PRO_COMPUTE_AP_MUMBAIENTERPRISE_SQL_PRO_COMPUTE_AP_SINGAPOREENTERPRISE_SQL_PRO_COMPUTE_AP_TOKYOENTERPRISE_SQL_PRO_COMPUTE_AP_SEOULPREMIUM_ALL_PURPOSE_COMPUTEPREMIUM_ALL_PURPOSE_COMPUTE_(PHOTON)PREMIUM_DLT_CORE_COMPUTEPREMIUM_DLT_CORE_COMPUTE_(PHOTON)PREMIUM_DLT_PRO_COMPUTEPREMIUM_DLT_PRO_COMPUTE_(PHOTON)PREMIUM_DLT_ADVANCED_COMPUTEPREMIUM_DLT_ADVANCED_COMPUTE_(PHOTON)PREMIUM_JOBS_COMPUTEPREMIUM_JOBS_COMPUTE_(PHOTON)PREMIUM_JOBS_LIGHT_COMPUTEPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_US_EAST_N_VIRGINIAPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_US_EAST_OHIOPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_US_WEST_OREGONPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_CANADAPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_EUROPE_IRELANDPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_EUROPE_FRANKFURTPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_AP_SINGAPOREPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_AP_SYDNEYPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_EAST_N_VIRGINIAPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_EAST_OHIOPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_WEST_OREGONPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_CANADAPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_EUROPE_IRELANDPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_EUROPE_FRANKFURTPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_AP_SINGAPOREPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_AP_SYDNEYPREMIUM_SERVERLESS_SQL_COMPUTE_US_EAST_N_VIRGINIAPREMIUM_SERVERLESS_SQL_COMPUTE_US_WEST_OREGONPREMIUM_SERVERLESS_SQL_COMPUTE_EUROPE_FRANKFURTPREMIUM_SERVERLESS_SQL_COMPUTE_EUROPE_IRELANDPREMIUM_SERVERLESS_SQL_COMPUTE_AP_SYDNEYPREMIUM_SQL_COMPUTEPREMIUM_SQL_PRO_COMPUTE_US_EAST_N_VIRGINIAPREMIUM_SQL_PRO_COMPUTE_US_EAST_OHIOPREMIUM_SQL_PRO_COMPUTE_US_WEST_OREGONPREMIUM_SQL_PRO_COMPUTE_US_WEST_CALIFORNIAPREMIUM_SQL_PRO_COMPUTE_CANADAPREMIUM_SQL_PRO_COMPUTE_SA_BRAZILPREMIUM_SQL_PRO_COMPUTE_EUROPE_IRELANDPREMIUM_SQL_PRO_COMPUTE_EUROPE_FRANKFURTPREMIUM_SQL_PRO_COMPUTE_EUROPE_LONDONPREMIUM_SQL_PRO_COMPUTE_EUROPE_FRANCEPREMIUM_SQL_PRO_COMPUTE_AP_SYDNEYPREMIUM_SQL_PRO_COMPUTE_AP_MUMBAIPREMIUM_SQL_PRO_COMPUTE_AP_SINGAPOREPREMIUM_SQL_PRO_COMPUTE_AP_TOKYOPREMIUM_SQL_PRO_COMPUTE_AP_SEOULSTANDARD_ALL_PURPOSE_COMPUTESTANDARD_ALL_PURPOSE_COMPUTE_(PHOTON)STANDARD_DLT_CORE_COMPUTESTANDARD_DLT_CORE_COMPUTE_(PHOTON)STANDARD_DLT_PRO_COMPUTESTANDARD_DLT_PRO_COMPUTE_(PHOTON)STANDARD_DLT_ADVANCED_COMPUTESTANDARD_DLT_ADVANCED_COMPUTE_(PHOTON)STANDARD_JOBS_COMPUTESTANDARD_JOBS_COMPUTE_(PHOTON)STANDARD_JOBS_LIGHT_COMPUTE
非推奨のSKU
以下のSKUは非推奨になりました。
非推奨のSKU名 | 非推奨になった日 | 代替SKU |
|---|---|---|
| 2020年3月 |
|
| 2020年3月 |
|
| 2020年3月 |
|
| 2022年4月 |
|
| 2022年6月 |
|
Databricks で使用状況データを分析する
このセクションでは、請求対象使用量CSVファイルのデータをDatabricksで分析用に利用できるようにする方法について説明します。
CSVファイルでは市販の表計算アプリケーションの標準的な形式が使用されていますが、Apache Sparkで読み込むには修正が必要です。Databricksで使用状況テーブルを作成するときは、option("escape", "\"")を使用する必要があります。
合計DBUは、dbus列の合計です。
Create Table UIを使用してログをインポートする
[Databricks へのファイルのアップロード] を使用して、CSV ファイルを Databricks にインポートして分析できます。
Spark データフレーム を作成する
以下のコードを使用して、CSVファイルへのパスから使用状況テーブルを作成することもできます。
df = (spark.
read.
option("header", "true").
option("inferSchema", "true").
option("escape", "\"").
csv("/FileStore/tables/usage_data.csv"))
df.createOrReplaceTempView("usage")
ファイルが S3 バケットに保存されている場合 ( ログ配信で使用される場合など)、コードは次のようになります。 ファイル・パスまたはディレクトリーを指定できます。 ディレクトリを渡すと、すべてのファイルがインポートされます。 次の例では、ファイルを指定します。
df = (spark.
read.
option("header", "true").
option("inferSchema", "true").
option("escape", "\"").
load("s3://<bucketname>/<pathprefix>/billable-usage/csv/workspaceId=<workspace-id>-usageMonth=<month>.csv"))
df.createOrReplaceTempView("usage")
以下の例では、課金利用ファイルのディレクトリをインポートしています。
df = (spark.
read.
option("header", "true").
option("inferSchema", "true").
option("escape", "\"").
load("s3://<bucketname>/<pathprefix>/billable-usage/csv/"))
df.createOrReplaceTempView("usage")
Delta テーブルを作成する
前述の例のデータフレーム(df)からDeltaテーブルを作成するには、以下のコードを使用します。
(df.write
.format("delta")
.mode("overwrite")
.saveAsTable("database_name.table_name")
)
保存されたDeltaテーブルは、新しいCSVファイルを追加または置換しても自動的には更新 されません 。最新のデータが必要な場合は、Deltaテーブルを使用する前にこれらのコマンドを再実行してください。