Esquema log eventos do pipeline declarativoLakeFlow
O log de eventos declarativo do pipeline LakeFlow contém todas as informações relacionadas a um pipeline, incluindo logs de auditoria, verificações de qualidade de dados, progresso pipeline e linhagem de dados.
As tabelas a seguir descrevem o esquema do log de eventos. Alguns desses campos contêm dados JSON que exigem análise para executar algumas consultas, como o campo details
. O Databricks suporta o operador :
para analisar campos JSON. Veja o operador:
(sinal de dois pontos).
Alguns campos no log de eventos são para uso interno do Databricks. A documentação a seguir descreve os campos destinados ao consumo do cliente.
Para obter detalhes sobre como usar o log de eventos do pipeline declarativo LakeFlow , consulte logde eventos do pipeline declarativoLakeFlow.
Objeto PipelineEvent
Representa um único evento de pipeline no log de eventos.
campo | Descrição |
---|---|
| Um identificador exclusivo para o registro do log de eventos. |
| Uma sequência JSON contendo metadados para identificar e ordenar eventos. |
| Uma sequência JSON contendo metadados para a origem do evento, por exemplo, o provedor cloud , a região do provedor cloud , o usuário e informações pipeline . Veja objeto Origin. |
| A hora em que o evento foi gravado, em UTC. |
| Uma mensagem legível por humanos descrevendo o evento. |
| O nível de alerta. Os valores possíveis são:
|
| A estabilidade do esquema de eventos. Os valores possíveis são:
Não é recomendado construir monitoramento ou alerta com base nos campos |
| Se ocorreu um erro, detalhes descrevendo o erro. |
| Uma sequência JSON contendo detalhes estruturados do evento. Este é o campo principal usado para analisar eventos. O formato das strings JSON depende do |
| O tipo de evento. Para obter uma lista de tipos de eventos e o tipo de objeto de detalhes que eles criam, consulte O objeto de detalhes. |
O objeto de detalhes
Cada evento tem propriedades details
diferentes no objeto JSON, com base no event_type
do evento. Esta tabela lista o event_type
e o details
associado. As propriedades details
são descritas na seção Tipos de detalhes .
Tipo de detalhes por | Descrição |
---|---|
| Captura a configuração completa usada para iniciar uma atualização pipeline . Inclui qualquer configuração definida pelo Databricks. Para obter detalhes, consulte Detalhes para create_update. |
| Fornece detalhes sobre qualquer ação do usuário no pipeline (incluindo a criação de um pipeline, bem como iniciar ou cancelar uma atualização). Para obter detalhes, consulte Detalhes do evento user_action. |
| Descreve o ciclo de vida de um fluxo, desde o início, execução, conclusão ou falha. Para obter detalhes, consulte Detalhes do evento flow_progress. |
| Descreve o ciclo de vida de uma atualização de pipeline, desde o início, execução, conclusão ou falha. Para obter detalhes, consulte Detalhes do evento update_progress. |
| Define o esquema e o plano de consulta para quaisquer transformações que ocorram em um determinado fluxo. Podem ser considerados como as bordas do DAG do Dataflow. Ele pode ser usado para calcular a linhagem de cada fluxo, bem como para ver o plano de consulta explicado. Para obter detalhes, consulte Detalhes do evento flow_definition. |
| Define um dataset, que é a origem ou o destino de um determinado fluxo. Para obter detalhes, consulte Detalhes do evento dataset_definition. |
| Define um determinado coletor. Para obter detalhes, consulte Detalhes do evento sink_definition. |
| Lista recursos que estão prestes a ser descontinuados ou que estão obsoletos e que este pipeline utiliza. Para exemplos de valores, consulte Detalhes do enum para evento de descontinuação. |
| Inclui informações sobre recursos cluster para pipelines que estão sendo executados em compute clássica. Essas métricas são preenchidas apenas para o pipeline compute clássico. Para obter detalhes, consulte Detalhes do evento cluster_resources. |
| Inclui informações sobre dimensionamento automático para pipelines em execução no Classic compute. Essas métricas são preenchidas apenas para o pipeline compute clássico. Para obter detalhes, consulte Detalhes do evento autoscale. |
| Representa informações de planejamento relacionadas à view materializada incremental vs. refresh completa. Pode ser usado para obter mais detalhes sobre o motivo pelo qual uma view materializada é totalmente recomputada. Para obter detalhes, consulte Detalhes do evento planning_information. |
| Um evento para indicar o status atual de um gancho de usuário durante a execução do pipeline. Usado para monitorar o status de ganchos de eventos, por exemplo, para enviar para um produto de observabilidade externo. Para obter detalhes, consulte Detalhes do evento hook_progress. |
| Inclui informação sobre o andamento de uma operação. Para obter detalhes, consulte Detalhes do evento operation_progress. |
| Inclui informações sobre o progresso de um pipeline. Para obter detalhes, consulte Detalhes do evento stream_progress. |
Tipos de detalhes
Os objetos a seguir representam o details
de um tipo de evento diferente no objeto PipelineEvent
.
Detalhes para create_update
Os detalhes do evento create_update
.
campo | Descrição |
---|---|
| A versão do Databricks Runtime. |
| O ID do usuário em nome do qual a atualização será executada. Normalmente, esse é o proprietário do pipeline ou uma entidade de serviço. |
| O motivo da atualização. Normalmente, |
Detalhes do evento user_action
Os detalhes do evento user_action
. Inclui os seguintes campos:
campo | Descrição |
---|---|
| O nome do usuário que acionou uma atualização de pipeline. |
| O ID do usuário que acionou uma atualização de pipeline. Isso nem sempre é o mesmo que o usuário |
| A ação realizada pelo usuário, incluindo |
Detalhes do evento flow_progress
Os detalhes de um evento flow_progress
.
campo | Descrição |
---|---|
| O novo status do fluxo. Pode ser um dos seguintes:
|
| métricas sobre o fluxo. Para mais detalhes, consulte FlowMetrics. |
| Métricas de qualidade de dados sobre o fluxo e expectativas associadas. Para obter detalhes, consulte DataQualityMetrics. |
Detalhes do evento update_progress
Os detalhes de um evento update_progress
.
campo | Descrição |
---|---|
| O novo estado da atualização. Pode ser um dos seguintes:
Útil para calcular a duração de vários estágios de uma atualização pipeline , desde a duração total até o tempo gasto esperando por recurso, por exemplo. |
| O motivo pelo qual uma atualização entrou no estado |
Detalhes do evento flow_definition
Os detalhes de um evento flow_definition
.
campo | Descrição |
---|---|
| As entradas lidas por este fluxo. |
| O dataset de saída no qual este fluxo grava. |
| O coletor de saída no qual esse fluxo grava. |
| O plano de consulta explicado. |
| Cadeias de caracteres de esquema JSON Spark SQL . |
| Esquema deste fluxo. |
| O tipo de fluxo. Pode ser um dos seguintes:
|
| Comentário ou descrição do usuário sobre o dataset. |
| Confs do Spark definidas neste fluxo. |
| A linguagem usada para criar esse fluxo. Pode ser |
| Se esse fluxo foi declarado para execução uma vez. |
Detalhes do evento dataset_definition
Os detalhes de um evento dataset_definition
. Inclui os seguintes campos:
campo | Descrição |
---|---|
| Diferencia entre visualização materializada e tabelas de transmissão. |
| O número de fluxos gravados no dataset. |
| As expectativas associadas ao dataset. |
Detalhes do evento sink_definition
Os detalhes de um evento sink_definition
.
campo | Descrição |
---|---|
| O formato da pia. |
| As opções de key-valor associadas ao coletor. |
Detalhes enum para evento de descontinuação
O evento deprecation
tem um campo message
. Os valores possíveis para message
incluem o seguinte. Esta é uma lista parcial que cresce com o tempo.
campo | Descrição |
---|---|
| Uma tabela é gerenciada por múltiplos pipelines. |
| Usando rótulo cluster que não são suportados. |
| Usando |
| Usando o canal de lançamento |
| Usando um nome de conjunto de dados maior que o comprimento suportado. |
| Usando um nome de coletor maior que o comprimento suportado. |
| Usando um nome de fluxo maior que o comprimento suportado. |
| A política de cluster só é compatível quando o dimensionamento automático aprimorado usa tamanho cluster fixo. |
| O uso da key de configuração para configurar a amostragem de dados está obsoleto. |
| As configurações atuais cluster ou políticas de cluster não são mais compatíveis com o pipeline declarativo LakeFlow . |
| Usando opções de leitor de transmissão que são descartadas. |
| Não é permitido definir configurações estáticas Spark por meio da configuração pipeline para pipeline serverless . |
| cliente sem servidor fornece configuração pipeline inválida. |
| Especificando caminhos de tabela explícitos não utilizados em tabelas UC gerencia. |
| A função foreachBatch fornecida não é serializável. |
| A remoção do atributo partition_cols não resulta em particionamento. |
| Usando @dlt.create_table em vez de @dp.table ou @dp.materialized_view. |
| Usando @dlt.create_view em vez de @dp.temporary_view. |
| Usando |
| Usando |
| Conjunto de tabelas gerenciadas por pipeline possui um ciclo no conjunto de restrições key estrangeira. |
| Uma referência de tabela parcialmente qualificada que tem significados diferentes no modo de publicação default e no modo de publicação legado. |
Detalhes do evento cluster_resources
Os detalhes de um evento cluster_resources
. Aplicável somente para pipeline em execução no Classic compute.
campo | Descrição |
---|---|
| As métricas de slot de tarefa do cluster. Para obter detalhes, consulte o objeto TaskSlotMetrics |
| O estado dos autoescaladores. Para obter detalhes, consulte o objeto AutoscaleInfo |
Detalhes do evento autoscale
Os detalhes de um evento autoscale
. Os eventos de dimensionamento automático são aplicáveis somente quando o pipeline usa compute clássica.
campo | Descrição |
---|---|
| Status deste evento. Pode ser um dos seguintes:
|
| O número ideal de executores sugerido pelo algoritmo antes de aplicar os limites |
| O número de executores após truncar o número ótimo de executores sugerido pelo algoritmo para os limites |
Detalhes do evento planning_information
Os detalhes de um evento planning_information
. Útil para ver detalhes relacionados ao tipo de refresh escolhido para um determinado fluxo durante uma atualização. Pode ser usado para ajudar a depurar por que uma atualização é totalmente atualizada em vez de atualizada incrementalmente. Para obter mais detalhes sobre atualização incremental, consulte refresh incremental para visualização materializada
campo | Descrição |
---|---|
| informações relacionadas à atualização. Inclui informações sobre qual metodologia refresh foi escolhida e as possíveis metodologias refresh que foram consideradas. Teste útil para explicar por que uma view materializada falhou ao incrementalizar. Para mais detalhes, consulte TechniqueInformation. |
| Informações da tabela de origem. Pode ser útil para testar por que uma view materializada falhou ao incrementalizar. Para obter detalhes, consulte o objeto TableInformation. |
| Informações da tabela de destino. Para obter detalhes, consulte o objeto TableInformation. |
Detalhes do evento hook_progress
Os detalhes de um evento hook_progress
. Inclui os seguintes campos:
campo | Descrição |
---|---|
| O nome do gancho do usuário. |
| O status do gancho do usuário. |
Detalhes do evento operation_progress
Os detalhes de um evento operation_progress
. Inclui os seguintes campos:
campo | Descrição |
---|---|
| O tipo de operações que estão sendo rastreadas. Um de:
|
| O status das operações. Um de:
|
| Tempo total decorrido das operações em milissegundos. Incluído somente no evento final (onde o status é |
Detalhes do evento stream_progress
Visualização
Este recurso está em Visualização Pública.
Os detalhes de um evento stream_progress
. Inclui o seguinte campo:
campo | Descrição |
---|---|
| Os detalhes da transmissão pipeline . Semelhante às As diferenças são descritas nos parágrafos seguintes. Para obter documentação completa sobre métricas |
Diferenças entre métricas de objeto stream_progress
e StreamingQueryListener
:
- As seguintes métricas estão presentes em
StreamingQueryListener
, mas não emstream_progress
:numInputRows
,inputRowsPerSecond
eprocessedRowsPerSecond
. - Para transmissão de Kafka e Kineses, os campos
startOffset
,endOffset
elatestOffset
podem ser muito grandes e são truncados. Para cada um desses campos, um campo...Truncated
adicional,startOffsetTruncated
,endOffsetTruncated
elatestOffsetTruncated
, é adicionado com um valor Boolean para indicar se os dados serão truncados.
Outros objetos
Os objetos a seguir representam dados adicionais ou enumerações dentro dos objetos de evento.
Objeto AutoscaleInfo
As métricas autoscale para um cluster. Aplicável somente para pipeline em execução no Classic compute.
campo | Descrição |
---|---|
| O status do dimensionamento automático. Pode ser um dos seguintes:
|
| O número ideal de executores. Este é o tamanho ideal sugerido pelo algoritmo antes de ser truncado pelo número mínimo/máximo de executores especificado pelo usuário. |
| O número de executores solicitados ao gerenciador cluster pelo gerenciador de estado na solicitação mais recente. Este é o número de executores para os quais o gerenciador de estado está tentando escalar e é atualizado quando o gerenciador de estado tenta sair do estado de escala em caso de tempo limite. Este campo não será preenchido se não houver nenhuma solicitação pendente. |
| O período em que a solicitação de dimensionamento ficou pendente. Não será preenchido se não houver nenhuma solicitação pendente. |
Objeto CostModelRejectionSubType
Uma enumeração de motivos pelos quais a incrementalização é rejeitada, com base no custo da refresh completa versus refresh incremental em um evento planning_information
.
Valor | Descrição |
---|---|
| refresh completamente porque a consulta contém muitas junções. |
| refresh completamente porque muitas linhas nas tabelas base foram alteradas. |
| refresh completamente porque o tamanho da tabela base excedeu o limite. |
| refresh completamente porque a definição da consulta é complexa e tem muitos níveis de aninhamento de operadores. |
| refresh completamente por qualquer outro motivo. |
Objeto DataQualityMetrics
métricas sobre como as expectativas estão sendo atendidas dentro do fluxo. Usado em detalhes do evento flow_progress
.
campo | Descrição |
---|---|
| O número de registros que foram descartados porque não atenderam a uma ou mais expectativas. |
| métricas para expectativas adicionadas a qualquer dataset no plano de consulta do fluxo. Quando há múltiplas expectativas, isso pode ser usado para rastrear quais expectativas foram atendidas ou não. Para obter detalhes, consulte o objeto ExpectationMetrics. |
Objeto ExpectationMetrics
métricas sobre expectativas, para uma expectativa específica.
campo | Descrição |
---|---|
| O nome da expectativa. |
| O nome do dataset ao qual a expectativa foi adicionada. |
| O número de registros que atendem às expectativas. |
| O número de registros que não atendem às expectativas. Monitora se a expectativa foi atendida, mas não descreve o que acontece com os registros (avisa, falha ou descarta os registros). |
Objeto FlowMetrics
métricas sobre o fluxo, incluindo o total do fluxo e detalhado por fonte específica. Usado em detalhes do evento flow_progress
.
Cada fonte de transmissão suporta apenas métricas de fluxo específicas. A tabela a seguir mostra as métricas disponíveis para fontes de transmissão suportadas:
Origem | bytes de backlog | registros de pendências | segundos de atraso | arquivos de pendências |
---|---|---|---|---|
Kafka | ✓ | ✓ | ||
Kinesis | ✓ | ✓ | ||
Delta | ✓ | ✓ | ||
Carregador automático | ✓ | ✓ | ||
Google Pub/Sub | ✓ | ✓ |
campo | Descrição |
---|---|
| Número de linhas de saída gravadas por uma atualização deste fluxo. |
| Backlog total em bytes em todas as fontes de entrada no fluxo. |
| Total de registros de pendências em todas as fontes de entrada no fluxo. |
| Total de arquivos pendentes em todas as fontes de entrada no fluxo. |
| Máximo de segundos de backlog em todas as fontes de entrada no fluxo. |
| Soma de todos os tempos de execução de tarefas em milissegundos deste fluxo durante o período do relatório. |
| Soma de todos os tempos de CPU de execução de tarefas em milissegundos deste fluxo durante o período do relatório. |
| Número de linhas de saída inseridas no dataset por uma atualização deste fluxo. |
| Número de linhas de saída existentes excluídas do dataset por uma atualização deste fluxo. |
| Número de bytes de saída gravados por uma atualização deste fluxo. |
| métricas para cada fonte de entrada no fluxo. Útil para monitorar o progresso da ingestão de fontes externas ao pipeline declarativo LakeFlow (como Apache Kafka, Pulsar ou Auto Loader). Inclui os campos:
|
Objeto IncrementalizationIssue
Representa problemas com incrementalização que podem causar uma refresh completa ao planejar uma atualização.
campo | Descrição |
---|---|
| Um tipo de problema que pode impedir a incrementalização da view materializada. Para obter detalhes, consulte Tipo de problema. |
| Se esse problema impediu que a incrementalização acontecesse. |
| Informações de tabela associadas a problemas como |
| Informações relacionadas ao plano. Definido para problemas quando o tipo de problema for |
| O nome da expressão. |
| Informação auxiliar quando o operador é um join. Por exemplo, |
| Categoria detalhada quando o tipo de problema é |
| Categoria detalhada quando o tipo de problema é |
| A diferença da impressão digital anterior. |
| A diferença da impressão digital atual. |
| Categoria detalhada quando o tipo de problema é |
Objeto IssueType
Uma enumeração de tipos de problemas que podem causar uma refresh completa.
Valor | Descrição |
---|---|
| O CDF (Change Data Feed) não está habilitado em algumas tabelas base. O campo |
| refresh completa porque algumas tabelas base (detalhes no campo |
| refresh completamente porque algumas tabelas base (detalhes no campo |
| refresh completamente porque algumas tabelas base (detalhes no campo |
| refresh completamente porque a definição view materializada envolve alguma entrada não Delta. |
| refresh completamente porque alguns arquivos da tabela base já estão vacuum devido ao seu período de retenção. |
| refresh completamente porque alguns operadores ou expressões na definição view materializada não são determinísticos. Os campos |
| refresh completamente porque alguns operadores ou expressões na definição view materializada não são incrementalizáveis. |
| refresh completa porque houve uma mudança significativa na lógica de impressão digital da consulta. |
| refresh completamente porque a definição view materializada foi alterada ou os lançamentos do pipeline declarativo LakeFlow causaram uma alteração nos planos de avaliação da consulta. |
| refresh completamente porque as configurações key (por exemplo, |
| refresh completamente porque este é o primeiro compute da view materializada. Este é o comportamento esperado para o cálculo inicial view materializada. |
| refresh completamente porque a definição view materializada inclui expectativas, que não são suportadas para atualizações incrementais. Remova expectativas ou trate-as fora da definição view materializada se for necessário suporte incremental. |
| refresh completamente porque o número de ações de arquivo excedeu o limite para processamento incremental. Considere reduzir a rotatividade de arquivos nas tabelas base ou aumentar o limite. |
| refresh completamente porque o modelo de custo determinou que uma refresh completa é mais eficiente do que a manutenção incremental. Revise o comportamento do modelo de custo ou a complexidade do plano de consulta para permitir atualizações incrementais. |
| refresh completamente porque o acompanhamento de linhas não está habilitado em uma ou mais tabelas base. Habilite o acompanhamento de linha usando |
| refresh completamente porque muitas partições foram alteradas nas tabelas base. Tente limitar o número de alterações de partição para permanecer dentro dos limites de processamento incremental. |
| refresh completamente porque a definição view materializada inclui um tipo de mapa, que não é suportado para atualizações incrementais. Considere reestruturar os dados para evitar tipos de mapa na view materializada. |
| refresh completamente porque a configuração do fuso horário da sessão ou do sistema foi alterada. |
| refresh completamente porque os dados relevantes para a view materializada foram alterados de uma forma que impede atualizações incrementais. Avalie as alterações de dados e a estrutura da definição view para garantir a compatibilidade com a lógica incremental. |
| refresh completamente porque o registro de data e hora da última execução bem-sucedida está faltando. Isso pode ocorrer após perda de metadados ou intervenção manual. |
Objeto MaintenanceType
Uma enumeração de tipos de manutenção que podem ser escolhidos durante um evento planning_information
. Se o tipo não for MAINTENANCE_TYPE_COMPLETE_RECOMPUTE
ou MAINTENANCE_TYPE_NO_OP
, o tipo será uma refresh incremental .
Valor | Descrição |
---|---|
| Recomputação completa; sempre exibida. |
| Quando as tabelas base não mudam. |
| refresh incrementalmente as partições afetadas quando a view materializada for coparticionada com uma das tabelas de origem. |
| refresh incrementalmente criando conjuntos de alterações modulares para várias operações, como |
| refresh incrementalmente computando apenas novas linhas porque não houve upserts ou exclusões nas tabelas de origem. |
| refresh incrementalmente calculando alterações para cada valor agregado. Usado quando agregados associativos, como |
| refresh incrementalmente calculando apenas os grupos agregados afetados. Usado quando agregados como |
| refresh consultas incrementalmente com funções de janela como |
Objeto de origem
Onde o evento se originou.
campo | Descrição |
---|---|
| O provedor cloud . Os valores possíveis são:
|
| A região cloud . |
| O ID da organização ou ID workspace do usuário. Único dentro de uma cloud. Útil para identificar o workspace ou para join com outras tabelas, como tabelas de faturamento do sistema. |
| O id do pipeline. Um identificador exclusivo para o pipeline. Útil para identificar o pipeline ou para join com outras tabelas, como tabelas de faturamento do sistema. |
| O tipo de pipeline para mostrar onde o pipeline foi criado. Os valores possíveis são:
|
| O nome do pipeline. |
| O id do cluster onde uma execução acontece. Único no mundo todo. |
| O id de uma única execução do pipeline. Isso é equivalente ao ID de execução. |
| O nome da tabela (Delta) que está sendo gravada. |
| O nome totalmente qualificado de um dataset. |
| O nome de uma pia. |
| O id do fluxo. Ele rastreia o estado do fluxo que está sendo usado em várias atualizações. Desde que o |
| O nome do fluxo. |
| O id de um microlote. Único dentro de um fluxo. |
| O id da solicitação que causou uma atualização. |
Objeto PlanNotDeterministicSubType
Uma enumeração de casos não determinísticos para um evento planning_information
.
Valor | Descrição |
---|---|
| refresh completamente porque a definição view materializada inclui uma fonte de transmissão, que não é suportada. |
| refresh completamente porque a view materializada inclui uma função definida pelo usuário sem suporte. Somente UDFs Python determinísticos são suportados. Outras UDFs podem impedir atualizações incrementais. |
| refresh completamente porque a view materializada inclui uma função baseada em tempo, como |
| refresh completamente porque a consulta inclui uma expressão não determinística, como |
Objeto PlanNotIncrementalizableSubType
Uma série de razões pelas quais um plano de atualização pode não ser incrementalizável.
Valor | Descrição |
---|---|
| refresh completamente porque o plano de consulta inclui um operador não suportado. A propriedade |
| refresh completamente porque um operador agregado ( |
| refresh completamente porque a agregação inclui uma cláusula |
| refresh completamente porque a agregação inclui expressões não suportadas. A propriedade |
| refresh completamente porque a definição view materializada inclui uma expressão de subconsulta, que não é suportada. |
| refresh completamente porque uma função de janela não está no nível superior do plano de consulta. |
| refresh completamente porque uma função de janela é definida sem uma cláusula |
Objeto TableInformation
Representa detalhes de uma tabela considerada durante um evento planning_information
.
campo | Descrição |
---|---|
| Nome da tabela usada na consulta do Unity Catalog ou do Hive metastore. Pode não estar disponível em caso de acesso baseado em caminho. |
| Obrigatório. ID da tabela do log Delta. |
| Tipo de tabela conforme especificado no catálogo. |
| Colunas de partição da tabela. |
| Alterar tipo na tabela. Um de: |
| O tamanho total da tabela em número de bytes. |
| Tamanho das linhas alteradas nos arquivos alterados. É calculado usando |
| Número de partições alteradas. |
| Se |
| Se o ID da linha está habilitado na tabela. |
| Se o CDF está habilitado na tabela. |
| Se o vetor de exclusão está habilitado na tabela. |
| Se a alteração da tabela é do CDF legado ou do CDF baseado em ID de linha. |
Objeto TaskSlotMetrics
As métricas de slot de tarefa para um cluster. Aplica-se somente a atualizações pipeline em execução no Classic compute.
campo | Descrição |
---|---|
| A duração em milissegundos durante a qual as métricas agregadas (por exemplo, |
| O número de slots de tarefas Spark no momento do relatório. |
| O número médio de slots de tarefa Spark ao longo da duração do resumo. |
| A utilização média de slots de tarefas (número de tarefas ativas dividido pelo número de slots de tarefas) ao longo da duração resumida. |
| O número de executores Spark no instante do relatório. |
| O tamanho médio da fila de tarefas (número de tarefas totais menos o número de tarefas ativas) durante a duração resumida. |
Objeto de informação técnica
atualizar informações de metodologia para um evento de planejamento.
campo | Descrição |
---|---|
| Tipo de manutenção relacionada a esta informação. Se o tipo não for Para obter detalhes, consulte o objeto MaintenanceType. |
| Verdadeiro para a técnica que foi escolhida para a refresh. |
| Se o tipo de manutenção é aplicável. |
| Problemas de incrementação que podem fazer com que uma atualização seja totalmente refresh. Para obter detalhes, consulte o objeto IncrementalizationIssue. |
| informações sobre o conjunto de alterações final produzido. Os valores são um dos seguintes:
|