Uso faturável log schema (legado)
Este artigo inclui detalhes sobre os logs de uso legados, que apresentam limitações significativas.
Esses logs não incluem cobranças de armazenamento default , rede serverless ou qualquer outra SKU que não seja baseada em DBU. Por exemplo, os seguintes SKUs não estão incluídos nos logs de uso legados:
INTERNET_EGRESS_FROM_US_WEST_OREGONINTER_REGION_EGRESS_FROM_US_WEST_OREGONPUBLIC_CONNECTIVITY_DATA_PROCESSED_US_WEST_OREGONENTERPRISE_DATABRICKS_STORAGE_US_WEST_OREGON
Databricks recomenda o uso da tabela de uso faturável do sistema para acessar e consultar dados completos de uso para todos os produtos e SKUs.
Este artigo explica como ler e analisar o uso log downloads de dados do console account.
É possível view e download faturar o uso diretamente no console account ou usando a conta API.
Esquema do arquivo CSV
Coluna | Tipo | Descrição | Exemplo |
|---|---|---|---|
workspaceId | string | ID do workspace. |
|
carimbo de data/hora | datetime | Fim da hora para o uso fornecido. |
|
clusterId | string | ID do cluster (para um cluster) ou do warehouse (para um warehouse SQL) | Exemplo de cluster: |
clusterName | string | Nome fornecido pelo usuário para o cluster/warehouse. |
|
clusterNodeType | string | Tipo de instância do cluster/warehouse. | Exemplo de cluster: |
clusterOwnerUserId | string | ID do usuário que criou o cluster/warehouse. |
|
clusterCustomTags | string (“-escaped json) | Tags personalizadas associadas ao cluster/warehouse durante essa hora. |
|
sku | string | SKU de cobrança. Consulte a tabela SKU de faturamento para obter uma lista de valores. |
|
dbus | double | Número de DBUs usadas pelo usuário durante essa hora. |
|
machineHours | double | Número total de horas de máquina usadas por todos os contêineres no cluster/warehouse. |
|
clusterOwnerUserName | string | Nome de usuário (email) do usuário que criou o cluster/warehouse. |
|
tags | string (“-escaped json) | tags padrão e personalizadas de clustering/warehouse e default e tags personalizadas de instância pool (se aplicável) associadas ao clustering durante essa hora. Consulte Tag de cluster, tags de armazém e tags de pool. Esse é um superconjunto da coluna |
|
SKU de faturamento
AWS_ENHANCED_SECURITY_AND_COMPLIANCEENTERPRISE_ALL_PURPOSE_COMPUTEENTERPRISE_ALL_PURPOSE_COMPUTE_(PHOTON)ENTERPRISE_DLT_CORE_COMPUTEENTERPRISE_DLT_CORE_COMPUTE_(PHOTON)ENTERPRISE_DLT_PRO_COMPUTEENTERPRISE_DLT_PRO_COMPUTE_(PHOTON)ENTERPRISE_DLT_ADVANCED_COMPUTEENTERPRISE_DLT_ADVANCED_COMPUTE_(PHOTON)ENTERPRISE_JOBS_COMPUTEENTERPRISE_JOBS_COMPUTE_(PHOTON)ENTERPRISE_JOBS_LIGHT_COMPUTEENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_US_EAST_N_VIRGINIAENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_US_EAST_OHIOENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_US_WEST_OREGONENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_CANADAENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_EUROPE_IRELANDENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_EUROPE_FRANKFURTENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_AP_SINGAPOREENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_AP_SYDNEYENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_EAST_N_VIRGINIAENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_EAST_OHIOENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_WEST_OREGONENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_CANADAENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_EUROPE_IRELANDENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_EUROPE_FRANKFURTENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_AP_SINGAPOREENTERPRISE_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_AP_SYDNEYENTERPRISE_SERVERLESS_SQL_COMPUTE_US_EAST_N_VIRGINIAENTERPRISE_SERVERLESS_SQL_COMPUTE_US_WEST_OREGONENTERPRISE_SERVERLESS_SQL_COMPUTE_EUROPE_IRELANDENTERPRISE_SERVERLESS_SQL_COMPUTE_AP_SYDNEYENTERPRISE_SQL_COMPUTEENTERPRISE_SQL_PRO_COMPUTE_US_EAST_N_VIRGINIAENTERPRISE_SQL_PRO_COMPUTE_US_EAST_OHIOENTERPRISE_SQL_PRO_COMPUTE_US_WEST_OREGONENTERPRISE_SQL_PRO_COMPUTE_US_WEST_CALIFORNIAENTERPRISE_SQL_PRO_COMPUTE_CANADAENTERPRISE_SQL_PRO_COMPUTE_SA_BRAZILENTERPRISE_SQL_PRO_COMPUTE_EUROPE_IRELANDENTERPRISE_SQL_PRO_COMPUTE_EUROPE_FRANKFURTENTERPRISE_SQL_PRO_COMPUTE_EUROPE_LONDONENTERPRISE_SQL_PRO_COMPUTE_EUROPE_FRANCEENTERPRISE_SQL_PRO_COMPUTE_AP_SYDNEYENTERPRISE_SQL_PRO_COMPUTE_AP_MUMBAIENTERPRISE_SQL_PRO_COMPUTE_AP_SINGAPOREENTERPRISE_SQL_PRO_COMPUTE_AP_TOKYOENTERPRISE_SQL_PRO_COMPUTE_AP_SEOULPREMIUM_ALL_PURPOSE_COMPUTEPREMIUM_ALL_PURPOSE_COMPUTE_(PHOTON)PREMIUM_DLT_CORE_COMPUTEPREMIUM_DLT_CORE_COMPUTE_(PHOTON)PREMIUM_DLT_PRO_COMPUTEPREMIUM_DLT_PRO_COMPUTE_(PHOTON)PREMIUM_DLT_ADVANCED_COMPUTEPREMIUM_DLT_ADVANCED_COMPUTE_(PHOTON)PREMIUM_JOBS_COMPUTEPREMIUM_JOBS_COMPUTE_(PHOTON)PREMIUM_JOBS_LIGHT_COMPUTEPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_US_EAST_N_VIRGINIAPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_US_EAST_OHIOPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_US_WEST_OREGONPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_CANADAPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_EUROPE_IRELANDPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_EUROPE_FRANKFURTPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_AP_SINGAPOREPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_AP_SYDNEYPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_EAST_N_VIRGINIAPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_EAST_OHIOPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_US_WEST_OREGONPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_CANADAPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_EUROPE_IRELANDPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_EUROPE_FRANKFURTPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_AP_SINGAPOREPREMIUM_SERVERLESS_REAL_TIME_INFERENCE_LAUNCH_AP_SYDNEYPREMIUM_SERVERLESS_SQL_COMPUTE_US_EAST_N_VIRGINIAPREMIUM_SERVERLESS_SQL_COMPUTE_US_WEST_OREGONPREMIUM_SERVERLESS_SQL_COMPUTE_EUROPE_FRANKFURTPREMIUM_SERVERLESS_SQL_COMPUTE_EUROPE_IRELANDPREMIUM_SERVERLESS_SQL_COMPUTE_AP_SYDNEYPREMIUM_SQL_COMPUTEPREMIUM_SQL_PRO_COMPUTE_US_EAST_N_VIRGINIAPREMIUM_SQL_PRO_COMPUTE_US_EAST_OHIOPREMIUM_SQL_PRO_COMPUTE_US_WEST_OREGONPREMIUM_SQL_PRO_COMPUTE_US_WEST_CALIFORNIAPREMIUM_SQL_PRO_COMPUTE_CANADAPREMIUM_SQL_PRO_COMPUTE_SA_BRAZILPREMIUM_SQL_PRO_COMPUTE_EUROPE_IRELANDPREMIUM_SQL_PRO_COMPUTE_EUROPE_FRANKFURTPREMIUM_SQL_PRO_COMPUTE_EUROPE_LONDONPREMIUM_SQL_PRO_COMPUTE_EUROPE_FRANCEPREMIUM_SQL_PRO_COMPUTE_AP_SYDNEYPREMIUM_SQL_PRO_COMPUTE_AP_MUMBAIPREMIUM_SQL_PRO_COMPUTE_AP_SINGAPOREPREMIUM_SQL_PRO_COMPUTE_AP_TOKYOPREMIUM_SQL_PRO_COMPUTE_AP_SEOULSTANDARD_ALL_PURPOSE_COMPUTESTANDARD_ALL_PURPOSE_COMPUTE_(PHOTON)STANDARD_DLT_CORE_COMPUTESTANDARD_DLT_CORE_COMPUTE_(PHOTON)STANDARD_DLT_PRO_COMPUTESTANDARD_DLT_PRO_COMPUTE_(PHOTON)STANDARD_DLT_ADVANCED_COMPUTESTANDARD_DLT_ADVANCED_COMPUTE_(PHOTON)STANDARD_JOBS_COMPUTESTANDARD_JOBS_COMPUTE_(PHOTON)STANDARD_JOBS_LIGHT_COMPUTE
SKU obsoleta
As seguintes SKUs foram descontinuadas:
Nome da SKU descontinuada | Data de descontinuação | SKUs de substituição |
|---|---|---|
| Março de 2020 |
|
| Março de 2020 |
|
| Março de 2020 |
|
| Abril de 2022 |
|
| Junho de 2022 |
|
Analisar dados de uso no Databricks
Esta seção descreve como disponibilizar os dados no arquivo CSV de uso faturável ao Databricks para análise.
O arquivo CSV usa um formato que é padrão para aplicativos de planilha comercial, mas requer uma modificação para ser lido pelo Apache Spark. Você deve usar option("escape", "\"") ao criar a tabela de uso no Databricks.
O total de DBUs é a soma da coluna dbus.
Importe o site log usando a interface de usuário Create Table (Criar tabela)
O senhor pode usar o upload de arquivos para Databricks para importar o arquivo CSV para Databricks para análise.
Criar um DataFrame do Spark
Você também pode usar o código a seguir para criar a tabela de uso a partir de um caminho para o arquivo CSV:
df = (spark.
read.
option("header", "true").
option("inferSchema", "true").
option("escape", "\"").
csv("/FileStore/tables/usage_data.csv"))
df.createOrReplaceTempView("usage")
Se o arquivo for armazenado em um bucket S3, por exemplo, quando for usado com fornecimento de log, o código será parecido com o seguinte. Você pode especificar um caminho de arquivo ou um diretório. Se você passar um diretório, todos os arquivos serão importados. O exemplo a seguir especifica um arquivo.
df = (spark.
read.
option("header", "true").
option("inferSchema", "true").
option("escape", "\"").
load("s3://<bucketname>/<pathprefix>/billable-usage/csv/workspaceId=<workspace-id>-usageMonth=<month>.csv"))
df.createOrReplaceTempView("usage")
O exemplo a seguir importa um diretório de arquivos de uso faturáveis:
df = (spark.
read.
option("header", "true").
option("inferSchema", "true").
option("escape", "\"").
load("s3://<bucketname>/<pathprefix>/billable-usage/csv/"))
df.createOrReplaceTempView("usage")
Criar uma tabela Delta
Para criar uma tabela Delta a partir do DataFrame (df) no exemplo anterior, use o código a seguir:
(df.write
.format("delta")
.mode("overwrite")
.saveAsTable("database_name.table_name")
)
A tabela Delta salva não é atualizada automaticamente quando você adiciona ou substitui novos arquivos CSV. Se você precisar dos dados mais recentes, execute novamente esses comandos antes de usar a tabela Delta.