Esquema log eventos do pipeline declarativoLakeFlow
O log de eventos declarativo do pipeline LakeFlow contém todas as informações relacionadas a um pipeline, incluindo logs de auditoria, verificações de qualidade de dados, progresso pipeline e linhagem de dados.
As tabelas a seguir descrevem o esquema do log de eventos. Alguns desses campos contêm dados JSON que exigem análise para executar algumas consultas, como o campo details . O Databricks suporta o operador : para analisar campos JSON. Veja o operador: (sinal de dois pontos).
Alguns campos no log de eventos são para uso interno do Databricks. A documentação a seguir descreve os campos destinados ao consumo do cliente.
Para obter detalhes sobre como usar o log de eventos do pipeline declarativo LakeFlow , consulte logde eventos do pipeline declarativoLakeFlow.
Objeto PipelineEvent
Representa um único evento de pipeline no log de eventos.
| campo | Descrição | 
|---|---|
| 
 | Um identificador exclusivo para o registro do log de eventos. | 
| 
 | Uma sequência JSON contendo metadados para identificar e ordenar eventos. | 
| 
 | Uma sequência JSON contendo metadados para a origem do evento, por exemplo, o provedor cloud , a região do provedor cloud , o usuário e informações pipeline . Veja objeto Origin. | 
| 
 | A hora em que o evento foi gravado, em UTC. | 
| 
 | Uma mensagem legível por humanos descrevendo o evento. | 
| 
 | O nível de alerta. Os valores possíveis são: 
 | 
| 
 | A estabilidade do esquema de eventos. Os valores possíveis são: 
 Não é recomendado construir monitoramento ou alerta com base nos campos  | 
| 
 | Se ocorreu um erro, detalhes descrevendo o erro. | 
| 
 | Uma sequência JSON contendo detalhes estruturados do evento. Este é o campo principal usado para analisar eventos. O formato das strings JSON depende do  | 
| 
 | O tipo de evento. Para obter uma lista de tipos de eventos e o tipo de objeto de detalhes que eles criam, consulte O objeto de detalhes. | 
O objeto de detalhes
Cada evento tem propriedades details diferentes no objeto JSON, com base no event_type do evento. Esta tabela lista o event_type e o details associado. As propriedades details são descritas na seção Tipos de detalhes .
| Tipo de detalhes por  | Descrição | 
|---|---|
| 
 | Captura a configuração completa usada para iniciar uma atualização pipeline . Inclui qualquer configuração definida pelo Databricks. Para obter detalhes, consulte Detalhes para create_update. | 
| 
 | Fornece detalhes sobre qualquer ação do usuário no pipeline (incluindo a criação de um pipeline, bem como iniciar ou cancelar uma atualização). Para obter detalhes, consulte Detalhes do evento user_action. | 
| 
 | Descreve o ciclo de vida de um fluxo, desde o início, execução, conclusão ou falha. Para obter detalhes, consulte Detalhes do evento flow_progress. | 
| 
 | Descreve o ciclo de vida de uma atualização de pipeline, desde o início, execução, conclusão ou falha. Para obter detalhes, consulte Detalhes do evento update_progress. | 
| 
 | Define o esquema e o plano de consulta para quaisquer transformações que ocorram em um determinado fluxo. Podem ser considerados como as bordas do DAG do Dataflow. Ele pode ser usado para calcular a linhagem de cada fluxo, bem como para ver o plano de consulta explicado. Para obter detalhes, consulte Detalhes do evento flow_definition. | 
| 
 | Define um dataset, que é a origem ou o destino de um determinado fluxo. Para obter detalhes, consulte Detalhes do evento dataset_definition. | 
| 
 | Define um determinado coletor. Para obter detalhes, consulte Detalhes do evento sink_definition. | 
| 
 | Lista recursos que estão prestes a ser descontinuados ou que estão obsoletos e que este pipeline utiliza. Para exemplos de valores, consulte Detalhes do enum para evento de descontinuação. | 
| 
 | Inclui informações sobre recursos cluster para pipelines que estão sendo executados em compute clássica. Essas métricas são preenchidas apenas para o pipeline compute clássico. Para obter detalhes, consulte Detalhes do evento cluster_resources. | 
| 
 | Inclui informações sobre dimensionamento automático para pipelines em execução no Classic compute. Essas métricas são preenchidas apenas para o pipeline compute clássico. Para obter detalhes, consulte Detalhes do evento autoscale. | 
| 
 | Representa informações de planejamento relacionadas à view materializada incremental vs. refresh completa. Pode ser usado para obter mais detalhes sobre o motivo pelo qual uma view materializada é totalmente recomputada. Para obter detalhes, consulte Detalhes do evento planning_information. | 
| 
 | Um evento para indicar o status atual de um gancho de usuário durante a execução do pipeline. Usado para monitorar o status de ganchos de eventos, por exemplo, para enviar para um produto de observabilidade externo. Para obter detalhes, consulte Detalhes do evento hook_progress. | 
| 
 | Inclui informação sobre o andamento de uma operação. Para obter detalhes, consulte Detalhes do evento operation_progress. | 
| 
 | Inclui informações sobre o progresso de um pipeline. Para obter detalhes, consulte Detalhes do evento stream_progress. | 
Tipos de detalhes
Os objetos a seguir representam o details de um tipo de evento diferente no objeto PipelineEvent .
Detalhes para create_update
Os detalhes do evento create_update .
| campo | Descrição | 
|---|---|
| 
 | A versão do Databricks Runtime. | 
| 
 | O ID do usuário em nome do qual a atualização será executada. Normalmente, esse é o proprietário do pipeline ou uma entidade de serviço. | 
| 
 | O motivo da atualização. Normalmente,  | 
Detalhes do evento user_action
Os detalhes do evento user_action . Inclui os seguintes campos:
| campo | Descrição | 
|---|---|
| 
 | O nome do usuário que acionou uma atualização de pipeline. | 
| 
 | O ID do usuário que acionou uma atualização de pipeline. Isso nem sempre é o mesmo que o usuário  | 
| 
 | A ação realizada pelo usuário, incluindo  | 
Detalhes do evento flow_progress
Os detalhes de um evento flow_progress .
| campo | Descrição | 
|---|---|
| 
 | O novo status do fluxo. Pode ser um dos seguintes: 
 | 
| 
 | métricas sobre o fluxo. Para mais detalhes, consulte FlowMetrics. | 
| 
 | Métricas de qualidade de dados sobre o fluxo e expectativas associadas. Para obter detalhes, consulte DataQualityMetrics. | 
Detalhes do evento update_progress
Os detalhes de um evento update_progress .
| campo | Descrição | 
|---|---|
| 
 | O novo estado da atualização. Pode ser um dos seguintes: 
 Útil para calcular a duração de vários estágios de uma atualização pipeline , desde a duração total até o tempo gasto esperando por recurso, por exemplo. | 
| 
 | O motivo pelo qual uma atualização entrou no estado  | 
Detalhes do evento flow_definition
Os detalhes de um evento flow_definition .
| campo | Descrição | 
|---|---|
| 
 | As entradas lidas por este fluxo. | 
| 
 | O dataset de saída no qual este fluxo grava. | 
| 
 | O coletor de saída no qual esse fluxo grava. | 
| 
 | O plano de consulta explicado. | 
| 
 | Cadeias de caracteres de esquema JSON Spark SQL . | 
| 
 | Esquema deste fluxo. | 
| 
 | O tipo de fluxo. Pode ser um dos seguintes: 
 | 
| 
 | Comentário ou descrição do usuário sobre o dataset. | 
| 
 | Confs do Spark definidas neste fluxo. | 
| 
 | A linguagem usada para criar esse fluxo. Pode ser  | 
| 
 | Se esse fluxo foi declarado para execução uma vez. | 
Detalhes do evento dataset_definition
Os detalhes de um evento dataset_definition . Inclui os seguintes campos:
| campo | Descrição | 
|---|---|
| 
 | Diferencia entre visualização materializada e tabelas de transmissão. | 
| 
 | O número de fluxos gravados no dataset. | 
| 
 | As expectativas associadas ao dataset. | 
Detalhes do evento sink_definition
Os detalhes de um evento sink_definition .
| campo | Descrição | 
|---|---|
| 
 | O formato da pia. | 
| 
 | As opções de key-valor associadas ao coletor. | 
Detalhes enum para evento de descontinuação
O evento deprecation tem um campo message . Os valores possíveis para message incluem o seguinte. Esta é uma lista parcial que cresce com o tempo.
| campo | Descrição | 
|---|---|
| 
 | Uma tabela é gerenciada por múltiplos pipelines. | 
| 
 | Usando rótulo cluster que não são suportados. | 
| 
 | Usando  | 
| 
 | Usando o canal de lançamento  | 
| 
 | Usando um nome de conjunto de dados maior que o comprimento suportado. | 
| 
 | Usando um nome de coletor maior que o comprimento suportado. | 
| 
 | Usando um nome de fluxo maior que o comprimento suportado. | 
| 
 | A política de cluster só é compatível quando o dimensionamento automático aprimorado usa tamanho cluster fixo. | 
| 
 | O uso da key de configuração para configurar a amostragem de dados está obsoleto. | 
| 
 | As configurações atuais cluster ou políticas de cluster não são mais compatíveis com o pipeline declarativo LakeFlow . | 
| 
 | Usando opções de leitor de transmissão que são descartadas. | 
| 
 | Não é permitido definir configurações estáticas Spark por meio da configuração pipeline para pipeline serverless . | 
| 
 | cliente sem servidor fornece configuração pipeline inválida. | 
| 
 | Especificando caminhos de tabela explícitos não utilizados em tabelas UC gerencia. | 
| 
 | A função foreachBatch fornecida não é serializável. | 
| 
 | A remoção do atributo partition_cols não resulta em particionamento. | 
| 
 | Usando @dlt.create_table em vez de @dp.table ou @dp.materialized_view. | 
| 
 | Usando @dlt.create_view em vez de @dp.temporary_view. | 
| 
 | Usando  | 
| 
 | Usando  | 
| 
 | Conjunto de tabelas gerenciadas por pipeline possui um ciclo no conjunto de restrições key estrangeira. | 
| 
 | Uma referência de tabela parcialmente qualificada que tem significados diferentes no modo de publicação default e no modo de publicação legado. | 
Detalhes do evento cluster_resources
Os detalhes de um evento cluster_resources . Aplicável somente para pipeline em execução no Classic compute.
| campo | Descrição | 
|---|---|
| 
 | As métricas de slot de tarefa do cluster. Para obter detalhes, consulte o objeto TaskSlotMetrics | 
| 
 | O estado dos autoescaladores. Para obter detalhes, consulte o objeto AutoscaleInfo | 
Detalhes do evento autoscale
Os detalhes de um evento autoscale . Os eventos de dimensionamento automático são aplicáveis somente quando o pipeline usa compute clássica.
| campo | Descrição | 
|---|---|
| 
 | Status deste evento. Pode ser um dos seguintes: 
 | 
| 
 | O número ideal de executores sugerido pelo algoritmo antes de aplicar os limites  | 
| 
 | O número de executores após truncar o número ótimo de executores sugerido pelo algoritmo para os limites  | 
Detalhes do evento planning_information
Os detalhes de um evento planning_information . Útil para ver detalhes relacionados ao tipo de refresh escolhido para um determinado fluxo durante uma atualização. Pode ser usado para ajudar a depurar por que uma atualização é totalmente atualizada em vez de atualizada incrementalmente. Para obter mais detalhes sobre atualização incremental, consulte refresh incremental para visualização materializada
| campo | Descrição | 
|---|---|
| 
 | informações relacionadas à atualização. Inclui informações sobre qual metodologia refresh foi escolhida e as possíveis metodologias refresh que foram consideradas. Teste útil para explicar por que uma view materializada falhou ao incrementalizar. Para mais detalhes, consulte TechniqueInformation. | 
| 
 | Informações da tabela de origem. Pode ser útil para testar por que uma view materializada falhou ao incrementalizar. Para obter detalhes, consulte o objeto TableInformation. | 
| 
 | Informações da tabela de destino. Para obter detalhes, consulte o objeto TableInformation. | 
Detalhes do evento hook_progress
Os detalhes de um evento hook_progress . Inclui os seguintes campos:
| campo | Descrição | 
|---|---|
| 
 | O nome do gancho do usuário. | 
| 
 | O status do gancho do usuário. | 
Detalhes do evento operation_progress
Os detalhes de um evento operation_progress . Inclui os seguintes campos:
| campo | Descrição | 
|---|---|
| 
 | O tipo de operações que estão sendo rastreadas. Um de: 
 | 
| 
 | O status das operações. Um de: 
 | 
| 
 | Tempo total decorrido das operações em milissegundos. Incluído somente no evento final (onde o status é  | 
Detalhes do evento stream_progress
Visualização
Este recurso está em Visualização Pública.
Os detalhes de um evento stream_progress . Inclui o seguinte campo:
| campo | Descrição | 
|---|---|
| 
 | Os detalhes da transmissão pipeline . Semelhante às  As diferenças são descritas nos parágrafos seguintes. Para obter documentação completa sobre métricas  | 
Diferenças entre métricas de objeto stream_progress e StreamingQueryListener :
- As seguintes métricas estão presentes em StreamingQueryListener, mas não emstream_progress:numInputRows,inputRowsPerSecondeprocessedRowsPerSecond.
- Para transmissão de Kafka e Kineses, os campos startOffset,endOffsetelatestOffsetpodem ser muito grandes e são truncados. Para cada um desses campos, um campo...Truncatedadicional,startOffsetTruncated,endOffsetTruncatedelatestOffsetTruncated, é adicionado com um valor Boolean para indicar se os dados serão truncados.
Outros objetos
Os objetos a seguir representam dados adicionais ou enumerações dentro dos objetos de evento.
Objeto AutoscaleInfo
As métricas autoscale para um cluster. Aplicável somente para pipeline em execução no Classic compute.
| campo | Descrição | 
|---|---|
| 
 | O status do dimensionamento automático. Pode ser um dos seguintes: 
 | 
| 
 | O número ideal de executores. Este é o tamanho ideal sugerido pelo algoritmo antes de ser truncado pelo número mínimo/máximo de executores especificado pelo usuário. | 
| 
 | O número de executores solicitados ao gerenciador cluster pelo gerenciador de estado na solicitação mais recente. Este é o número de executores para os quais o gerenciador de estado está tentando escalar e é atualizado quando o gerenciador de estado tenta sair do estado de escala em caso de tempo limite. Este campo não será preenchido se não houver nenhuma solicitação pendente. | 
| 
 | O período em que a solicitação de dimensionamento ficou pendente. Não será preenchido se não houver nenhuma solicitação pendente. | 
Objeto CostModelRejectionSubType
Uma enumeração de motivos pelos quais a incrementalização é rejeitada, com base no custo da refresh completa versus refresh incremental em um evento planning_information .
| Valor | Descrição | 
|---|---|
| 
 | refresh completamente porque a consulta contém muitas junções. | 
| 
 | refresh completamente porque muitas linhas nas tabelas base foram alteradas. | 
| 
 | refresh completamente porque o tamanho da tabela base excedeu o limite. | 
| 
 | refresh completamente porque a definição da consulta é complexa e tem muitos níveis de aninhamento de operadores. | 
| 
 | refresh completamente por qualquer outro motivo. | 
Objeto DataQualityMetrics
métricas sobre como as expectativas estão sendo atendidas dentro do fluxo. Usado em detalhes do evento flow_progress .
| campo | Descrição | 
|---|---|
| 
 | O número de registros que foram descartados porque não atenderam a uma ou mais expectativas. | 
| 
 | métricas para expectativas adicionadas a qualquer dataset no plano de consulta do fluxo. Quando há múltiplas expectativas, isso pode ser usado para rastrear quais expectativas foram atendidas ou não. Para obter detalhes, consulte o objeto ExpectationMetrics. | 
Objeto ExpectationMetrics
métricas sobre expectativas, para uma expectativa específica.
| campo | Descrição | 
|---|---|
| 
 | O nome da expectativa. | 
| 
 | O nome do dataset ao qual a expectativa foi adicionada. | 
| 
 | O número de registros que atendem às expectativas. | 
| 
 | O número de registros que não atendem às expectativas. Monitora se a expectativa foi atendida, mas não descreve o que acontece com os registros (avisa, falha ou descarta os registros). | 
Objeto FlowMetrics
métricas sobre o fluxo, incluindo o total do fluxo e detalhado por fonte específica. Usado em detalhes do evento flow_progress .
Cada fonte de transmissão suporta apenas métricas de fluxo específicas. A tabela a seguir mostra as métricas disponíveis para fontes de transmissão suportadas:
| Origem | bytes de backlog | registros de pendências | segundos de atraso | arquivos de pendências | 
|---|---|---|---|---|
| Kafka | ✓ | ✓ | ||
| Kinesis | ✓ | ✓ | ||
| Delta | ✓ | ✓ | ||
| Carregador automático | ✓ | ✓ | ||
| Google Pub/Sub | ✓ | ✓ | 
| campo | Descrição | 
|---|---|
| 
 | Número de linhas de saída gravadas por uma atualização deste fluxo. | 
| 
 | Backlog total em bytes em todas as fontes de entrada no fluxo. | 
| 
 | Total de registros de pendências em todas as fontes de entrada no fluxo. | 
| 
 | Total de arquivos pendentes em todas as fontes de entrada no fluxo. | 
| 
 | Máximo de segundos de backlog em todas as fontes de entrada no fluxo. | 
| 
 | Soma de todos os tempos de execução de tarefas em milissegundos deste fluxo durante o período do relatório. | 
| 
 | Soma de todos os tempos de CPU de execução de tarefas em milissegundos deste fluxo durante o período do relatório. | 
| 
 | Número de linhas de saída inseridas no dataset por uma atualização deste fluxo. | 
| 
 | Número de linhas de saída existentes excluídas do dataset por uma atualização deste fluxo. | 
| 
 | Número de bytes de saída gravados por uma atualização deste fluxo. | 
| 
 | métricas para cada fonte de entrada no fluxo. Útil para monitorar o progresso da ingestão de fontes externas ao pipeline declarativo LakeFlow (como Apache Kafka, Pulsar ou Auto Loader). Inclui os campos: 
 | 
Objeto IncrementalizationIssue
Representa problemas com incrementalização que podem causar uma refresh completa ao planejar uma atualização.
| campo | Descrição | 
|---|---|
| 
 | Um tipo de problema que pode impedir a incrementalização da view materializada. Para obter detalhes, consulte Tipo de problema. | 
| 
 | Se esse problema impediu que a incrementalização acontecesse. | 
| 
 | Informações de tabela associadas a problemas como  | 
| 
 | Informações relacionadas ao plano. Definido para problemas quando o tipo de problema for  | 
| 
 | O nome da expressão. | 
| 
 | Informação auxiliar quando o operador é um join. Por exemplo,  | 
| 
 | Categoria detalhada quando o tipo de problema é  | 
| 
 | Categoria detalhada quando o tipo de problema é  | 
| 
 | A diferença da impressão digital anterior. | 
| 
 | A diferença da impressão digital atual. | 
| 
 | Categoria detalhada quando o tipo de problema é  | 
Objeto IssueType
Uma enumeração de tipos de problemas que podem causar uma refresh completa.
| Valor | Descrição | 
|---|---|
| 
 | O CDF (Change Data Feed) não está habilitado em algumas tabelas base. O campo  | 
| 
 | refresh completa porque algumas tabelas base (detalhes no campo  | 
| 
 | refresh completamente porque algumas tabelas base (detalhes no campo  | 
| 
 | refresh completamente porque algumas tabelas base (detalhes no campo  | 
| 
 | refresh completamente porque a definição view materializada envolve alguma entrada não Delta. | 
| 
 | refresh completamente porque alguns arquivos da tabela base já estão vacuum devido ao seu período de retenção. | 
| 
 | refresh completamente porque alguns operadores ou expressões na definição view materializada não são determinísticos. Os campos  | 
| 
 | refresh completamente porque alguns operadores ou expressões na definição view materializada não são incrementalizáveis. | 
| 
 | refresh completa porque houve uma mudança significativa na lógica de impressão digital da consulta. | 
| 
 | refresh completamente porque a definição view materializada foi alterada ou os lançamentos do pipeline declarativo LakeFlow causaram uma alteração nos planos de avaliação da consulta. | 
| 
 | refresh completamente porque as configurações key (por exemplo,  | 
| 
 | refresh completamente porque este é o primeiro compute da view materializada. Este é o comportamento esperado para o cálculo inicial view materializada. | 
| 
 | refresh completamente porque a definição view materializada inclui expectativas, que não são suportadas para atualizações incrementais. Remova expectativas ou trate-as fora da definição view materializada se for necessário suporte incremental. | 
| 
 | refresh completamente porque o número de ações de arquivo excedeu o limite para processamento incremental. Considere reduzir a rotatividade de arquivos nas tabelas base ou aumentar o limite. | 
| 
 | refresh completamente porque o modelo de custo determinou que uma refresh completa é mais eficiente do que a manutenção incremental. Revise o comportamento do modelo de custo ou a complexidade do plano de consulta para permitir atualizações incrementais. | 
| 
 | refresh completamente porque o acompanhamento de linhas não está habilitado em uma ou mais tabelas base. Habilite o acompanhamento de linha usando  | 
| 
 | refresh completamente porque muitas partições foram alteradas nas tabelas base. Tente limitar o número de alterações de partição para permanecer dentro dos limites de processamento incremental. | 
| 
 | refresh completamente porque a definição view materializada inclui um tipo de mapa, que não é suportado para atualizações incrementais. Considere reestruturar os dados para evitar tipos de mapa na view materializada. | 
| 
 | refresh completamente porque a configuração do fuso horário da sessão ou do sistema foi alterada. | 
| 
 | refresh completamente porque os dados relevantes para a view materializada foram alterados de uma forma que impede atualizações incrementais. Avalie as alterações de dados e a estrutura da definição view para garantir a compatibilidade com a lógica incremental. | 
| 
 | refresh completamente porque o registro de data e hora da última execução bem-sucedida está faltando. Isso pode ocorrer após perda de metadados ou intervenção manual. | 
Objeto MaintenanceType
Uma enumeração de tipos de manutenção que podem ser escolhidos durante um evento planning_information . Se o tipo não for MAINTENANCE_TYPE_COMPLETE_RECOMPUTE ou MAINTENANCE_TYPE_NO_OP, o tipo será uma refresh incremental .
| Valor | Descrição | 
|---|---|
| 
 | Recomputação completa; sempre exibida. | 
| 
 | Quando as tabelas base não mudam. | 
| 
 | refresh incrementalmente as partições afetadas quando a view materializada for coparticionada com uma das tabelas de origem. | 
| 
 | refresh incrementalmente criando conjuntos de alterações modulares para várias operações, como  | 
| 
 | refresh incrementalmente computando apenas novas linhas porque não houve upserts ou exclusões nas tabelas de origem. | 
| 
 | refresh incrementalmente calculando alterações para cada valor agregado. Usado quando agregados associativos, como  | 
| 
 | refresh incrementalmente calculando apenas os grupos agregados afetados. Usado quando agregados como  | 
| 
 | refresh consultas incrementalmente com funções de janela como  | 
Objeto de origem
Onde o evento se originou.
| campo | Descrição | 
|---|---|
| 
 | O provedor cloud . Os valores possíveis são: 
 | 
| 
 | A região cloud . | 
| 
 | O ID da organização ou ID workspace do usuário. Único dentro de uma cloud. Útil para identificar o workspace ou para join com outras tabelas, como tabelas de faturamento do sistema. | 
| 
 | O id do pipeline. Um identificador exclusivo para o pipeline. Útil para identificar o pipeline ou para join com outras tabelas, como tabelas de faturamento do sistema. | 
| 
 | O tipo de pipeline para mostrar onde o pipeline foi criado. Os valores possíveis são: 
 | 
| 
 | O nome do pipeline. | 
| 
 | O id do cluster onde uma execução acontece. Único no mundo todo. | 
| 
 | O id de uma única execução do pipeline. Isso é equivalente ao ID de execução. | 
| 
 | O nome da tabela (Delta) que está sendo gravada. | 
| 
 | O nome totalmente qualificado de um dataset. | 
| 
 | O nome de uma pia. | 
| 
 | O id do fluxo. Ele rastreia o estado do fluxo que está sendo usado em várias atualizações. Desde que o  | 
| 
 | O nome do fluxo. | 
| 
 | O id de um microlote. Único dentro de um fluxo. | 
| 
 | O id da solicitação que causou uma atualização. | 
Objeto PlanNotDeterministicSubType
Uma enumeração de casos não determinísticos para um evento planning_information .
| Valor | Descrição | 
|---|---|
| 
 | refresh completamente porque a definição view materializada inclui uma fonte de transmissão, que não é suportada. | 
| 
 | refresh completamente porque a view materializada inclui uma função definida pelo usuário sem suporte. Somente UDFs Python determinísticos são suportados. Outras UDFs podem impedir atualizações incrementais. | 
| 
 | refresh completamente porque a view materializada inclui uma função baseada em tempo, como  | 
| 
 | refresh completamente porque a consulta inclui uma expressão não determinística, como  | 
Objeto PlanNotIncrementalizableSubType
Uma série de razões pelas quais um plano de atualização pode não ser incrementalizável.
| Valor | Descrição | 
|---|---|
| 
 | refresh completamente porque o plano de consulta inclui um operador não suportado. A propriedade  | 
| 
 | refresh completamente porque um operador agregado ( | 
| 
 | refresh completamente porque a agregação inclui uma cláusula  | 
| 
 | refresh completamente porque a agregação inclui expressões não suportadas. A propriedade  | 
| 
 | refresh completamente porque a definição view materializada inclui uma expressão de subconsulta, que não é suportada. | 
| 
 | refresh completamente porque uma função de janela não está no nível superior do plano de consulta. | 
| 
 | refresh completamente porque uma função de janela é definida sem uma cláusula  | 
Objeto TableInformation
Representa detalhes de uma tabela considerada durante um evento planning_information .
| campo | Descrição | 
|---|---|
| 
 | Nome da tabela usada na consulta do Unity Catalog ou do Hive metastore. Pode não estar disponível em caso de acesso baseado em caminho. | 
| 
 | Obrigatório. ID da tabela do log Delta. | 
| 
 | Tipo de tabela conforme especificado no catálogo. | 
| 
 | Colunas de partição da tabela. | 
| 
 | Alterar tipo na tabela. Um de:  | 
| 
 | O tamanho total da tabela em número de bytes. | 
| 
 | Tamanho das linhas alteradas nos arquivos alterados. É calculado usando  | 
| 
 | Número de partições alteradas. | 
| 
 | Se  | 
| 
 | Se o ID da linha está habilitado na tabela. | 
| 
 | Se o CDF está habilitado na tabela. | 
| 
 | Se o vetor de exclusão está habilitado na tabela. | 
| 
 | Se a alteração da tabela é do CDF legado ou do CDF baseado em ID de linha. | 
Objeto TaskSlotMetrics
As métricas de slot de tarefa para um cluster. Aplica-se somente a atualizações pipeline em execução no Classic compute.
| campo | Descrição | 
|---|---|
| 
 | A duração em milissegundos durante a qual as métricas agregadas (por exemplo,  | 
| 
 | O número de slots de tarefas Spark no momento do relatório. | 
| 
 | O número médio de slots de tarefa Spark ao longo da duração do resumo. | 
| 
 | A utilização média de slots de tarefas (número de tarefas ativas dividido pelo número de slots de tarefas) ao longo da duração resumida. | 
| 
 | O número de executores Spark no instante do relatório. | 
| 
 | O tamanho médio da fila de tarefas (número de tarefas totais menos o número de tarefas ativas) durante a duração resumida. | 
Objeto de informação técnica
atualizar informações de metodologia para um evento de planejamento.
| campo | Descrição | 
|---|---|
| 
 | Tipo de manutenção relacionada a esta informação. Se o tipo não for  Para obter detalhes, consulte o objeto MaintenanceType. | 
| 
 | Verdadeiro para a técnica que foi escolhida para a refresh. | 
| 
 | Se o tipo de manutenção é aplicável. | 
| 
 | Problemas de incrementação que podem fazer com que uma atualização seja totalmente refresh. Para obter detalhes, consulte o objeto IncrementalizationIssue. | 
| 
 | informações sobre o conjunto de alterações final produzido. Os valores são um dos seguintes: 
 |