LakeFlow Esquema de e e de eventos declarativos do pipeline log
O evento de pipeline declarativo LakeFlow log contém todas as informações relacionadas a um pipeline, incluindo auditoria logs, verificações de qualidade de dados, progresso de pipeline e linhagem de dados.
As tabelas a seguir descrevem o esquema do log de eventos. Alguns desses campos contêm dados JSON que requerem análise para realizar algumas consultas, como o campo “ details
”. O Databricks oferece suporte ao operador :
para analisar campos JSON. Consulte o operador:
(sinal de dois pontos).
Alguns campos no log de eventos são para uso interno da Databricks. A documentação a seguir descreve os campos destinados ao consumo do cliente.
Para obter detalhes sobre como utilizar o LakeFlow evento de pipeline declarativo “ ” (Executar ação de pipeline),log consulte. Para obter detalhes sobre como utilizar o evento de LakeFlow pipeline declarativo “ ”(Executar ação de pipeline), consulte.log
Objeto PipelineEvent
Representa um único evento de pipeline no log de eventos.
campo | Descrição |
---|---|
| Um identificador exclusivo para o registro do log de eventos. |
| Uma string de tipo " JSON " contendo metadados para identificar e ordenar eventos. |
| Uma cadeia de caracteres " JSON " contendo metadados sobre a origem do evento, por exemplo, o provedor de nuvem, a região do provedor de nuvem, o usuário e uma informação " pipeline ". Consulte Objeto Origin. |
| A hora em que o evento foi gravado, em UTC. |
| Uma mensagem legível por humanos descrevendo o evento. |
| O nível de aviso. Os valores possíveis são:
|
| A estabilidade do esquema de eventos. Os valores possíveis são:
Não é recomendável criar monitoramento ou alerta com base nos campos “ |
| Se ocorreu um erro, detalhes descrevendo o erro. |
| Uma string JSON e contendo detalhes estruturados do evento. Esse é o campo principal usado para analisar eventos. O formato das cadeias de caracteres do JSON depende do |
| O tipo de evento. Para obter uma lista dos tipos de eventos e o tipo de objeto de detalhes que eles criam, consulte O objeto de detalhes. |
O objeto de detalhes
Cada evento possui diferentes propriedades de " details
" no objeto JSON, com base no " event_type
" do evento. Essa tabela lista o event_type
e o details
associado. As propriedades details
são descritas na seção Tipos de detalhes.
Digite os detalhes por | Descrição |
---|---|
| Captura a configuração completa utilizada para iniciar uma atualização do pipeline. Inclui qualquer configuração definida pelo Databricks. Para obter detalhes, consulte Detalhes de create_update. |
| Fornece detalhes sobre qualquer ação do usuário no pipeline (incluindo a criação de um pipeline, bem como o início ou cancelamento de uma atualização). Para obter detalhes, consulte Detalhes do evento user_action. |
| Descreve o ciclo de vida de um fluxo desde o início, a execução até a conclusão ou falha. Para obter detalhes, consulte Detalhes do evento flow_progress. |
| Descreve o ciclo de vida de uma atualização de pipeline, desde o início, execução até a conclusão ou falha. Para obter detalhes, consulte Detalhes do evento update_progress. |
| Define o esquema e o plano de consulta para quaisquer transformações que ocorram em um determinado fluxo. Podem ser considerados os limites do Dataflow DAG. Ele pode ser usado para calcular a linhagem de cada fluxo, bem como para ver o plano de consulta explicado. Para obter detalhes, consulte Detalhes do evento flow_definition. |
| Define um " dataset", que é a origem ou o destino de um determinado fluxo. Para obter detalhes, consulte Detalhes do evento dataset_definition. |
| Define um determinado coletor. Para obter detalhes, consulte Detalhes do evento sink_definition. |
| Lista os recursos que estão prestes a ser ou já foram descontinuados e que este pipeline utiliza. Para obter exemplos dos valores, consulte a enumeração Details para o evento de depreciação. |
| Inclui informações sobre o recurso de agrupamento para pipelines em execução no compute clássico. Essas métricas são preenchidas apenas para o pipeline clássico de compute. Para obter detalhes, consulte Detalhes do evento cluster_resources. |
| Inclui informações sobre o ajuste automático para pipelines em execução no compute clássico. Essas métricas são preenchidas apenas para o pipeline clássico de compute. Para obter detalhes, consulte Detalhes do evento “ autoscale”. |
| Representa informações de planejamento relacionadas à materialização de view incremental vs. full refresh. Pode ser utilizado para obter mais detalhes sobre o motivo pelo qual uma expressão materializada ( view ) é totalmente recalculada. Para obter detalhes, consulte Detalhes do evento planning_information. |
| Um evento para indicar o status atual de um gancho do usuário durante a execução do pipeline. Utilizado para monitorar o status de ganchos de eventos, por exemplo, para enviar para um produto de observabilidade externo. Para obter detalhes, consulte Detalhes do evento hook_progress. |
| Inclui informações sobre o andamento das operações. Para obter detalhes, consulte Detalhes do evento operation_progress. |
| Inclui informações sobre o progresso de um pipeline. Para obter detalhes, consulte Detalhes do evento stream_progress. |
Tipos de detalhes
Os objetos a seguir representam o details
de um tipo de evento diferente no objeto PipelineEvent
.
Detalhes de create_update
Os detalhes do evento create_update
.
campo | Descrição |
---|---|
| A versão do Databricks Runtime. |
| A ID do usuário em nome do qual a atualização será executada. Normalmente, trata-se do proprietário do pipeline ou de uma entidade de serviço. |
| O motivo da atualização. Normalmente, |
Detalhes do evento user_action
Os detalhes do evento user_action
. Inclui os seguintes campos:
campo | Descrição |
---|---|
| O nome do usuário que acionou uma atualização do pipeline. |
| A identificação do usuário que acionou uma atualização do pipeline. Isso nem sempre é o mesmo que o usuário |
| A ação que o usuário realizou, incluindo |
Detalhes do evento flow_progress
Os detalhes de um evento flow_progress
.
campo | Descrição |
---|---|
| O novo status do fluxo. Pode ser um dos seguintes:
|
| métricas sobre o fluxo. Para obter detalhes, consulte FlowMetrics. |
| Métricas de qualidade dos dados sobre o fluxo e expectativas associadas. Para obter detalhes, consulte DataQualityMetrics. |
Detalhes do evento update_progress
Os detalhes de um evento update_progress
.
campo | Descrição |
---|---|
| O novo estado da atualização. Pode ser um dos seguintes:
Útil para calcular a duração de várias etapas de uma atualização de e pipeline, desde a duração total até o tempo gasto aguardando o recurso, por exemplo. |
| O motivo pelo qual uma atualização entrou no estado |
Detalhes do evento flow_definition
Os detalhes de um evento flow_definition
.
campo | Descrição |
---|---|
| As entradas lidas por esse fluxo. |
| O e dataset e de saída no qual este fluxo grava. |
| O coletor de saída no qual esse fluxo grava. |
| O plano de consulta explicado. |
| Spark SQL JSON cadeias de caracteres do esquema. |
| Esquema desse fluxo. |
| O tipo de fluxo. Pode ser um dos seguintes:
|
| Comentário ou descrição do usuário sobre o dataset. |
| Configurar as confs do Spark neste fluxo. |
| A linguagem usada para criar esse fluxo. Pode ser |
| Se este fluxo foi declarado para execução uma vez. |
Detalhes do evento dataset_definition
Os detalhes de um evento dataset_definition
. Inclui os seguintes campos:
campo | Descrição |
---|---|
| Diferencia entre visualizações materializadas e tabelas de transmissão. |
| O número de fluxos que estão gravando no dataset. |
| As expectativas associadas ao dataset. |
Detalhes do evento sink_definition
Os detalhes de um evento sink_definition
.
campo | Descrição |
---|---|
| O formato da pia. |
| As opções de valor de erro ( key) associadas ao coletor. |
Enumero de detalhes para evento de depreciação
O evento deprecation
tem um campo message
. Os valores possíveis para o message
incluem o seguinte. Essa é uma lista parcial que cresce com o tempo.
campo | Descrição |
---|---|
| Uma tabela é gerenciada por vários pipelines. |
| Utilização de rótulos de agrupamento que não são suportados. |
| Utilizando |
| Utilizando o canal de lançamento |
| Usando um nome de conjunto de dados maior do que o tamanho suportado. |
| Usando um nome de coletor maior do que o tamanho suportado. |
| Usando um nome de fluxo maior do que o comprimento suportado. |
| A política de cluster só é cumprida quando o Enhanced autoscale utiliza um tamanho de clustering fixo. |
| A utilização da configuração key para configurar a amostragem de dados está obsoleta. |
| As configurações atuais de agrupamento ou política de cluster não são mais compatíveis com o pipeline declarativo do LakeFlow. |
| Utilizando as opções do leitor de transmissão que foram descartadas. |
| Não é permitido definir configurações estáticas de Spark através da configuração pipeline para o pipeline serverless. |
| O cliente sem servidor fornece uma configuração inválida de pipeline. |
| Especificar caminhos explícitos de tabelas não utilizados nas tabelas UC gerenciar. |
| A função ForEachBatch fornecida não é serializável. |
| A eliminação do atributo partition_cols resulta em nenhum particionamento. |
| Usando @dlt .create_table em vez de @dlt .table. |
| Usando @dlt .create_view em vez de @dlt.view. |
| Usando |
| Usando |
| O conjunto de tabelas gerenciar por pipeline possui um ciclo no conjunto de restrições estrangeiras key. |
| Uma referência de tabela parcialmente qualificada que possui significados diferentes no modo de publicação d default e no modo de publicação legado. |
Detalhes do evento cluster_resources
Os detalhes de um evento cluster_resources
. Aplicável apenas para pipelines em execução no compute clássico.
campo | Descrição |
---|---|
| As métricas de tarefa do agrupamento. Para obter detalhes, consulte o objeto TaskSlotMetrics |
| O estado dos autoescaladores. Para obter detalhes, consulte o objeto AutoScaleInfo |
Detalhes do evento “ autoscale ” (A arte de ser um artista: uma conversa com o
Os detalhes de um evento autoscale
. Os eventos de autoescala só são aplicáveis quando o pipeline utiliza o compute clássico.
campo | Descrição |
---|---|
| Status deste evento. Pode ser um dos seguintes:
|
| O número ideal de executores sugerido pelo algoritmo antes de aplicar os limites de “ |
| O número de executores após o truncamento do número ideal de executores sugerido pelo algoritmo para os limites |
Detalhes do evento planning_information
Os detalhes de um evento planning_information
. Útil para visualizar detalhes relacionados ao tipo de e refresh e selecionado para um determinado fluxo durante uma atualização. Pode ser usado para ajudar a depurar por que uma atualização é totalmente atualizada em vez de incrementalmente. Para obter mais detalhes sobre a atualização incremental, consulte Atualização incremental ( refresh ) para visualização materializada.
campo | Descrição |
---|---|
| Informações relacionadas à atualização. Inclui informações sobre a metodologia de refresh escolhida e as possíveis metodologias de refresh que foram consideradas. Útil para depuração quando uma instrução materializada ( view ) falha na incrementalização. Para obter mais detalhes, consulte Informações técnicas. |
| Tabela de origem da informação. Pode ser útil para depuração, caso uma operação de materialização ( view ) não tenha sido incrementada. Para obter detalhes, consulte Objeto TableInformation. |
| Tabela de destino: informação. Para obter detalhes, consulte Objeto TableInformation. |
Detalhes do evento hook_progress
Os detalhes de um evento hook_progress
. Inclui os seguintes campos:
campo | Descrição |
---|---|
| O nome do gancho do usuário. |
| O status do gancho do usuário. |
Detalhes do evento operation_progress
Os detalhes de um evento operation_progress
. Inclui os seguintes campos:
campo | Descrição |
---|---|
| O tipo de operações que estão sendo rastreadas. Um dos:
|
| O status das operações. Um dos:
|
| O tempo total decorrido das operações em milissegundos. Incluído somente no evento final (onde o status é |
Detalhes do evento stream_progress
Visualização
Esse recurso está em Public Preview.
Os detalhes de um evento stream_progress
. Inclui o seguinte campo:
campo | Descrição |
---|---|
| Os detalhes da transmissão do pipeline. Semelhante ao As diferenças são descritas nos parágrafos a seguir. Para obter a documentação completa sobre |
Diferenças entre as métricas de objetos stream_progress
e StreamingQueryListener
:
- As seguintes métricas estão presentes em
StreamingQueryListener
, mas não emstream_progress
:numInputRows
,inputRowsPerSecond
, eprocessedRowsPerSecond
. - Para a transmissão Kafka e Kineses, os campos
startOffset
,endOffset
elatestOffset
podem ser muito grandes e são truncados. Para cada um desses campos, um campo...Truncated
adicional,startOffsetTruncated
,endOffsetTruncated
elatestOffsetTruncated
, é adicionado com um valor Boolean para saber se os dados estão truncados.
Outros objetos
Os objetos a seguir representam dados ou enumerações adicionais nos objetos do evento.
objeto AutoScaleInfo
As métricas do algoritmo de agrupamento por distância mínima ( autoscale ) para um agrupamento. Aplicável apenas para pipelines em execução no compute clássico.
campo | Descrição |
---|---|
| O status da escala automática. Pode ser um dos seguintes:
|
| O número ideal de executores. Este é o tamanho ideal sugerido pelo algoritmo antes de ser truncado pelo número mínimo/máximo de executores especificado pelo usuário. |
| O número de executores solicitados ao gerenciador de clustering pelo gerenciador de estado na última solicitação. Este é o número de executores para os quais o gerenciador de estado está tentando escalar e é atualizado quando o gerenciador de estado tenta sair do estado de escalonamento em caso de tempo limite. Esse campo não será preenchido se não houver uma solicitação pendente. |
| O período de tempo em que a solicitação de escalabilidade está pendente. Isso não será preenchido se não houver uma solicitação pendente. |
Objeto CostModelRejectionSubType
Uma enumeração das razões pelas quais a incrementalização é rejeitada, com base no custo da refresh completa em comparação com a refresh incremental em um evento planning_information
.
Valor | Descrição |
---|---|
| refresh e porque a consulta contém muitas junções. |
| refresh e totalmente porque muitas linhas nas tabelas base foram alteradas. |
| refresh o total porque o tamanho da tabela base excedeu o limite. |
| Totalmente “ refresh ” porque a definição da consulta é complexa e possui muitos níveis de aninhamento de operadores. |
| refresh e totalmente por qualquer outro motivo. |
Objeto DataQualityMetrics
métricas sobre como as expectativas estão sendo atendidas dentro do fluxo. Usado nos detalhes de um evento flow_progress
.
campo | Descrição |
---|---|
| O número de registros que foram descartados porque falharam em uma ou mais expectativas. |
| métricas para expectativas adicionadas a qualquer dataset no plano de consulta do fluxo. Quando há várias expectativas, isso pode ser usado para rastrear quais expectativas foram atendidas ou falharam. Para obter detalhes, consulte o objeto ExpectationMetrics. |
Objeto ExpectationMetrics
métricas sobre expectativas, para uma expectativa específica.
campo | Descrição |
---|---|
| O nome da expectativa. |
| O nome do objeto de expectativa ( dataset ) ao qual a expectativa foi adicionada. |
| O número de registros que superam a expectativa. |
| O número de registros que não cumprem a expectativa. Rastreia se a expectativa foi atendida, mas não descreve o que acontece com os registros (avisar, falhar ou descartar os registros). |
Objeto FlowMetrics
métricas sobre o fluxo, incluindo tanto o total do fluxo quanto a divisão por fonte específica. Usado nos detalhes de um evento flow_progress
.
Cada fonte de transmissão suporta apenas métricas de fluxo específicas. A tabela a seguir apresenta as métricas disponíveis para as fontes de transmissão suportadas:
Origem | bytes da lista de pendências | registros de pendências | segundos de atraso | arquivos de lista de pendências |
---|---|---|---|---|
Kafka | ✓ | ✓ | ||
Kinesis | ✓ | ✓ | ||
Delta | ✓ | ✓ | ||
Carregador automático | ✓ | ✓ | ||
Google Pub/Sub | ✓ | ✓ |
campo | Descrição |
---|---|
| Número de linhas de saída gravadas por uma atualização desse fluxo. |
| Total de pendências em bytes em todas as fontes de entrada no fluxo. |
| Total de registros de pendências em todas as fontes de entrada no fluxo. |
| Total de arquivos de backlog em todas as fontes de entrada no fluxo. |
| Máximo de segundos de backlog em todas as fontes de entrada no fluxo. |
| Soma de todos os tempos de execução de tarefas em milissegundos deste fluxo durante o período do relatório. |
| Soma de todos os tempos de CPU de execução de tarefas em milissegundos deste fluxo durante o período do relatório. |
| Número de linhas de saída inseridas no " dataset " por uma atualização deste fluxo. |
| Número de linhas de saída existentes excluídas do " dataset " por uma atualização deste fluxo. |
| Número de bytes de saída gravados por uma atualização desse fluxo. |
| métricas para cada fonte de entrada no fluxo. Útil para monitorar o progresso da ingestão de fontes externas ao LakeFlow Pipeline declarativo (como Apache Kafka, Pulsar ou Auto Loader). Inclui os campos:
|
Objeto IncrementalizationIssue
Representa problemas com a incrementalização que podem causar uma atualização completa ( refresh ) ao planejar uma atualização.
campo | Descrição |
---|---|
| Um tipo de problema que pode impedir que o materializado “ view ” seja incrementado. Para obter detalhes, consulte Tipo de problema. |
| Se esse problema impediu que a incrementalização acontecesse. |
| Informações relacionadas a questões como |
| Informações relacionadas ao plano. Definido para problemas quando o tipo de problema é |
| O nome da expressão. |
| Informação auxiliar quando o operador é um operador qualificado ( join). Por exemplo, |
| Categoria detalhada quando o tipo de problema é |
| Categoria detalhada quando o tipo de problema é |
| A diferença da impressão digital anterior. |
| A diferença da impressão digital atual. |
| Categoria detalhada quando o tipo de problema é |
Objeto IssueType
Uma enumeração dos tipos de problemas que podem causar uma falha total ( refresh).
Valor | Descrição |
---|---|
| O CDF (Change Data Feed) não está ativado em algumas tabelas base. O campo “ |
| Totalmente refresh porque algumas tabelas base (detalhes no campo |
| refresh, pois algumas tabelas base (detalhes no campo |
| refresh e porque algumas tabelas base (detalhes no campo “ |
| Totalmente " refresh " porque a definição materializada " view " envolve alguma entrada não Delta. |
| refresh e totalmente porque alguns arquivos da tabela base já estão vacuum devido ao seu período de retenção. |
| Totalmente não determinístico ( refresh ) porque alguns operadores ou expressões na definição materializada view não são determinísticos. Os campos “ |
| Totalmente não incrementável ( refresh ) porque alguns operadores ou expressões na definição materializada view não são incrementáveis. |
| Totalmente refresh devido a uma alteração significativa na lógica de identificação de consultas. |
| refresh e totalmente porque a definição materializada view foi alterada ou LakeFlow As versões do pipeline declarativo causaram uma alteração nos planos de avaliação da consulta. |
| Totalmente refresh porque as configurações key (por exemplo, |
| refresh, pois é o primeiro compute do materializado view. Esse é o comportamento esperado para o cálculo inicial materializado de view. |
| refresh e totalmente porque a definição materializada view inclui expectativas, que não são suportadas para atualizações incrementais. Remova as expectativas ou lide com elas fora da definição materializada de view se for necessário suporte incremental. |
| refresh o total porque o número de ações de arquivo excedeu o limite para processamento incremental. Considere reduzir a rotatividade de arquivos nas tabelas base ou aumentar o limite. |
| Totalmente refresh porque o modelo de custos determinou que uma manutenção completa ( refresh ) é mais eficiente do que uma manutenção incremental. Analise o comportamento do modelo de custo ou a complexidade do plano de consulta para permitir atualizações incrementais. |
| refresh, pois o acompanhamento de linha não está habilitado em uma ou mais tabelas base. Ative o acompanhamento de linhas utilizando |
| refresh o total devido a muitas alterações nas partições das tabelas base. Tente limitar o número de alterações de partição para ficar dentro dos limites de processamento incremental. |
| Totalmente refresh porque a definição materializada view inclui um tipo de mapa, que não é compatível com atualizações incrementais. Considere reestruturar os dados para evitar tipos de mapa no materializado view. |
| refresh e totalmente porque a configuração do fuso horário da sessão ou do sistema foi alterada. |
| refresh e totalmente porque os dados relevantes para o materializado view foram alterados de forma a impedir atualizações incrementais. Avalie as alterações nos dados e a estrutura da definição do objeto de linha ( view ) para garantir a compatibilidade com a lógica incremental. |
| refresh e totalmente porque o carimbo de data/hora da última execução bem-sucedida está ausente. Isso pode ocorrer após perda de metadados ou intervenção manual. |
Objeto MaintenanceType
Uma enumeração dos tipos de manutenção que podem ser escolhidos durante um evento planning_information
. Se o tipo não for MAINTENANCE_TYPE_COMPLETE_RECOMPUTE
ou MAINTENANCE_TYPE_NO_OP
, o tipo é um refresh incremental.
Valor | Descrição |
---|---|
| Recálculo completo; sempre exibido. |
| Quando as tabelas base não mudam. |
| Incrementalmente, as partições afetadas pelo refresh quando o view materializado é co-particionado com uma das tabelas de origem. |
| refresh e incrementalmente criando conjuntos de alterações modulares para várias operações, tais como |
| refresh ar incrementalmente, calculando apenas novas linhas, pois não houve atualizações ou exclusões nas tabelas de origem. |
| Incrementalmente, refresh calculando as alterações para cada valor agregado. Usado quando agregados associativos, como |
| refresh ar incrementalmente, calculando apenas os grupos agregados afetados. Usado quando agregados como |
| Incremente consultas e refresh es com funções de janela, como |
Objeto de origem
Onde o evento se originou.
campo | Descrição |
---|---|
| O provedor de nuvem. Os valores possíveis são:
|
| A região da nuvem. |
| O ID da organização ou o ID do usuário no workspace. Exclusivo em uma nuvem. Útil para identificar o workspace ou para join com outras tabelas, como tabelas de faturamento do sistema. |
| A identificação do pipeline. Um identificador exclusivo para o pipeline. Útil para identificar o pipeline ou para join com outras tabelas, como tabelas de faturamento do sistema. |
| O tipo de pipeline para indicar onde o pipeline foi criado. Os valores possíveis são:
|
| O nome do pipeline. |
| O ID do agrupamento onde ocorre uma execução. Globalmente único. |
| A identificação de uma única execução do pipeline. Isso é equivalente a execução ID. |
| O nome da tabela (Delta) na qual está sendo gravado. |
| O nome completo de um dataset. |
| O nome de uma pia. |
| O id do fluxo. Ele rastreia o estado do fluxo que está sendo usado em várias atualizações. Desde que o |
| O nome do fluxo. |
| A identificação de um microbatch. Único dentro de um fluxo. |
| O id da solicitação que causou uma atualização. |
Objeto PlanNotDeterministicSubType
Uma enumeração de casos não determinísticos para um evento planning_information
.
Valor | Descrição |
---|---|
| Totalmente refresh porque a definição materializada view inclui uma fonte de transmissão, que não é suportada. |
| Totalmente refresh porque o view materializado inclui uma função definida pelo usuário não suportada. Apenas UDFs determinísticas do Python são suportadas. Outros UDFs podem impedir atualizações incrementais. |
| Totalmente " refresh " porque a " view " materializada inclui uma função baseada em tempo, como " |
| refresh e totalmente porque a consulta inclui uma expressão não determinística, como |
Objeto PlanNotIncrementalizableSubType
Uma série de motivos pelos quais um plano de atualização pode não ser incrementalizável.
Valor | Descrição |
---|---|
| refresh e totalmente porque o plano de consulta inclui um operador não suportado. A propriedade |
| refresh e totalmente porque um operador agregado ( |
| Totalmente " refresh " porque a agregação inclui uma cláusula " |
| refresh e porque a agregação inclui expressões não suportadas. A propriedade |
| Totalmente " refresh " porque a definição materializada " view " inclui uma expressão de subconsulta, que não é suportada. |
| Totalmente " refresh " porque uma função de janela não está no nível superior do plano de consulta. |
| Totalmente " refresh " porque uma função de janela é definida sem uma cláusula " |
Objeto TableInformation
Representa os detalhes de uma tabela considerada durante um evento planning_information
.
campo | Descrição |
---|---|
| Nome da tabela utilizada na consulta de Unity Catalog ou Hive metastore. Pode não estar disponível no caso de acesso baseado em caminho. |
| Obrigatório. ID da tabela do Delta log. |
| Tipo da tabela conforme especificado no catálogo. |
| Colunas de partição da tabela. |
| Altere o tipo na tabela. Um dos: |
| O tamanho total da tabela em número de bytes. |
| Tamanho das linhas alteradas nos arquivos alterados. É calculado usando |
| Número de partições alteradas. |
| Se |
| Se o ID da linha está habilitado na tabela. |
| Se o CDF está ativado na tabela. |
| Se o vetor de exclusão está habilitado na tabela. |
| Se a alteração da tabela é de um CDF legado ou de um CDF baseado em ID de linha. |
Objeto TaskSlotMetrics
As métricas de tarefa para um agrupamento. Aplicável apenas a atualizações do pipeline em execução no compute clássico.
campo | Descrição |
---|---|
| A duração em milissegundos durante a qual as métricas agregadas (por exemplo, |
| O número de slots de tarefas Spark no momento do relatório. |
| O número médio de slots de tarefas Spark durante o resumo da duração. |
| A utilização média do slot tarefa (número de tarefas ativas dividido pelo número de slots tarefa) ao longo da duração resumida. |
| O número de executores do Spark no momento do relatório. |
| O tamanho médio da fila de tarefas (número total de tarefas menos o número de tarefas ativas) durante o período resumido. |
Objeto de informação técnica
Atualizar a metodologia de informações para um evento de planejamento.
campo | Descrição |
---|---|
| Tipo de manutenção relacionado a esta informação. Se o tipo não for Para obter detalhes, consulte o objeto MaintenanceType. |
| Isso é válido para a técnica escolhida para o refresh. |
| Se o tipo de manutenção é aplicável. |
| Problemas de incrementalização que podem impedir que uma atualização seja totalmente e refresh. Para obter detalhes, consulte o objeto IncrementalizationIssue. |
| Informações sobre o conjunto final de alterações produzidas. Os valores são um dos seguintes:
|