Monitoramento da qualidade dos dados
Beta
Esse recurso está na versão beta.
Esta página descreve o que é o monitoramento da qualidade dos dados, o que ele monitora e como usá-lo. O monitoramento da qualidade dos dados era anteriormente chamado de detecção de anomalia.
Para fornecer feedback sobre o monitoramento da qualidade dos dados, email lakehouse-monitoring-feedback@databricks.com
.
O que é monitoramento da qualidade dos dados?
Usando o monitoramento da qualidade dos dados, o senhor pode monitorar facilmente a qualidade dos dados de todas as tabelas em um esquema. A Databricks aproveita a inteligência de dados para avaliar automaticamente a qualidade dos dados, avaliando especificamente a atualidade e a integridade de cada tabela. As percepções de qualidade são preenchidas em indicadores de saúde para que os consumidores possam entender a saúde em um piscar de olhos. Os proprietários de dados têm acesso a tabelas de registro e painéis para que possam identificar rapidamente, definir alertas e resolver anomalias em um esquema inteiro.
O monitoramento da qualidade dos dados não modifica nenhuma das tabelas que monitora, nem adiciona sobrecarga a nenhum trabalho que preencha essas tabelas.
Requisitos
- Workspace habilitado para o Unity Catalog.
- sem servidor compute ativado. Para obter instruções, consulte Conectar-se a serverless compute .
- Para ativar o monitoramento da qualidade dos dados em um esquema, o senhor deve ter privilégios de gerenciar SCHEMA ou gerenciar CATALOG no esquema do catálogo.
Como funciona o monitoramento da qualidade dos dados?
A Databricks monitora as tabelas ativadas para verificar se estão atualizadas e completas .
Frescura se refere ao quão recentemente uma tabela foi atualizada. O monitoramento da qualidade dos dados analisa o histórico de confirmações em uma tabela e cria um modelo por tabela para prever a hora da próxima commit. Se um commit for excepcionalmente tardio, a tabela será marcada como obsoleta. Para tabelas de séries temporais, você pode especificar colunas de horário do evento. O monitoramento da qualidade dos dados detecta, então, se a latência de ingestão dos dados, definida como a diferença entre o tempo de commit e o tempo do evento, é excepcionalmente alta.
A integridade se refere ao número de linhas que se espera que sejam gravadas na tabela nas últimas 24 horas. O monitoramento da qualidade dos dados analisa a contagem histórica de linhas e, com base nesses dados, prevê um intervalo do número esperado de linhas. Se o número de linhas confirmadas nas últimas 24 horas for menor que o limite inferior desse intervalo, uma tabela será marcada como incompleta.
Com que frequência um monitor de qualidade de dados é executado?
Pelo site default, um monitor de qualidade de dados é executado a cada hora. Antes de examinar cada tabela, o sistema verifica se é provável que a tabela tenha sido atualizada desde a última execução. Se ainda não se espera que uma tabela tenha sido atualizada, a verificação será ignorada.
Ativar o monitoramento da qualidade dos dados em um esquema
Para ativar o monitoramento da qualidade dos dados em um esquema, navegue até o esquema no Unity Catalog.
-
Na página do esquema, clique em Details (Detalhes ) tab.
-
Clique no botão de alternância do monitoramento da qualidade dos dados para ativá-lo.
-
Um trabalho agendado para Databricks é iniciado para verificar o esquema. Para a execução do primeiro trabalho, o site Databricks também executa o monitor de dados históricos ("backtesting") para verificar a qualidade de suas tabelas como se o monitoramento da qualidade dos dados tivesse sido ativado em seu esquema há duas semanas. Esses resultados são registrados na tabela de logs.
-
Em default, o trabalho é executado a cada hora. Para alterar essa configuração, consulte Definir parâmetros para avaliação de atualização e integridade.
-
Para view o progresso do trabalho ou para configurá-lo, clique no ícone de engrenagem
ao lado do botão de alternância. Na caixa de diálogo exibida, clique em visualizar detalhes .
-
Quando o trabalho for concluído, o senhor verá o registro dos problemas de qualidade detectados na tabela de registro de saída com percepções preenchidas no Data Quality Dashboard. O senhor pode acessar o painel a qualquer momento clicando em See results (Ver resultados ) ao lado do botão de monitoramento Data Quality (Qualidade dos dados ).
Painel de monitoramento da qualidade dos dados
A primeira execução do monitor de qualidade de dados cria um painel para resumir os resultados e as tendências derivadas da tabela de registro. A execução do trabalho exibe um botão que o senhor pode usar para acessar o painel. O painel é preenchido automaticamente com percepções para o esquema digitalizado. Um único painel é criado por workspace no seguinte caminho: /Shared/Databricks Quality Monitoring/Data Quality Monitoring
.
Visão geral da qualidade
A Visão geral da qualidade tab mostra um resumo do status de qualidade mais recente das tabelas em seu esquema com base na avaliação mais recente.
Para começar, o senhor deve inserir a tabela de registro do esquema que deseja analisar para preencher o painel.
A seção superior do painel mostra uma visão geral dos resultados da verificação.
Abaixo, o resumo é uma tabela que lista os incidentes de qualidade por impacto. Todas as causas raiz identificadas são exibidas na coluna root_cause_analysis
.
abaixo a tabela de incidentes de qualidade é uma tabela de tabelas estáticas identificadas que não são atualizadas há muito tempo.
Detalhes da qualidade da tabela
A interface de usuário Table Quality Details permite que você se aprofunde nas tendências e analise tabelas específicas em seu esquema. O senhor pode acessar a interface do usuário clicando nos nomes das tabelas no painel Visão geral da qualidade (veja os links clicáveis na captura de tela anterior) ou visitando a guia Qualidade no visualizador de tabelas do UC.
Em uma tabela, a interface do usuário mostra resumos de cada verificação de qualidade da tabela, com gráficos de valores previstos e observados em cada registro de data e hora da avaliação. O gráfico graficar resulta da última 1 semana de dados.
Se a tabela falhar nas verificações de qualidade, a interface do usuário também exibirá qualquer trabalho upstream que tenha sido identificado como a causa raiz.
visualizar indicadores de saúde
O monitoramento da qualidade dos dados oferece aos consumidores de dados uma rápida confirmação visual da atualização dos dados das tabelas que eles usam.
Na página do esquema, em Overview (Visão geral) tab, as tabelas que passaram na verificação de atualização mais recente estão marcadas com um ponto verde. As tabelas que falharam na verificação são mostradas com um ponto laranja.
Clique no ponto para ver a hora e o status da verificação mais recente.
Como proprietário dos dados, você pode avaliar facilmente a integridade geral do seu esquema classificando as tabelas com base na qualidade. Use o menu Classificar no canto superior direito da lista de tabelas para classificar as tabelas por qualidade.
Na página da tabela, em Overview tab, um indicador de qualidade mostra o status da tabela e lista todas as anomalias identificadas na varredura mais recente.
Configurar alerta
Para configurar um alerta Databricks SQL na tabela de resultados de saída, siga estas etapas na UI do alertaDatabricks.
-
Configure a consulta para o alerta:
SQLWITH rounded_data AS (
SELECT
DATE_TRUNC('HOUR', evaluated_at) AS evaluated_at,
CONCAT(catalog, ".", schema, ".", table_name) as full_table_name,
table_name,
status,
MAX(downstream_impact.num_queries_on_affected_tables) AS impacted_queries,
MAX(CASE WHEN quality_check_type = 'Freshness' AND additional_debug_info.commit_staleness.expectation IS NOT NULL
THEN additional_debug_info.commit_staleness.expectation END) AS commit_expected,
MAX(CASE WHEN quality_check_type = 'Freshness' AND additional_debug_info.commit_staleness.actual_value IS NOT NULL
THEN additional_debug_info.commit_staleness.actual_value END) AS commit_actual,
MAX(CASE WHEN quality_check_type = 'Freshness' AND additional_debug_info.event_staleness.expectation IS NOT NULL
THEN additional_debug_info.event_staleness.expectation END) AS event_expected,
MAX(CASE WHEN quality_check_type = 'Freshness' AND additional_debug_info.event_staleness.actual_value IS NOT NULL
THEN additional_debug_info.event_staleness.actual_value END) AS event_actual,
MAX(CASE WHEN quality_check_type = 'Completeness' AND additional_debug_info.daily_row_count.expectation IS NOT NULL
THEN additional_debug_info.daily_row_count.expectation END) AS completeness_expected,
MAX(CASE WHEN quality_check_type = 'Completeness' AND additional_debug_info.daily_row_count.actual_value IS NOT NULL
THEN additional_debug_info.daily_row_count.actual_value END) AS completeness_actual
FROM <catalog>.<schema>._quality_monitoring_summary
GROUP BY ALL
)
SELECT
evaluated_at,
full_table_name,
status,
commit_expected,
commit_actual,
event_expected,
event_actual,
completeness_expected,
completeness_actual,
impacted_queries,
CONCAT("<link-to-dashboard>&f_table-quality-details~table-quality-details-logging-table-name=<catalog>.<schema>._quality_monitoring_summary&f_table-quality-details~9d146eba=", table_name) AS dash_link
FROM rounded_data
WHERE
evaluated_at >= current_timestamp() - INTERVAL 6 HOUR AND
-- enter the minimum number of table violations before the alert is triggered
impacted_queries > <min-tables-affected> AND
status = "Unhealthy" -
Configure a condição de alerta:
-
Personalize o email padrão:
Html<h4>The following tables are failing quality checks in the last hour</h4>
<table>
<tr>
<td>
<table>
<tr>
<th>Table</th>
<th>Expected Staleness</th>
<th>Actual Staleness</th>
<th>Expected Row Volume</th>
<th>Actual Row Volume</th>
<th>Impact (queries)</th>
</tr>
{<a id='QUERY_RESULT_ROWS'/>}
<tr>
<td><a href="{{dash_link}}">{{full_table_name}}</a></td>
<td>{{commit_expected}}</td>
<td>{{commit_actual}}</td>
<td>{{completeness_expected}}</td>
<td>{{completeness_actual}}</td>
<td>{{impacted_queries}}</td>
</tr>
{{/QUERY_RESULT_ROWS}}
</table>
</td>
</tr>
</table>
Agora, o senhor tem um alerta que é acionado com base no impacto downstream do problema de qualidade e apresenta um link para o painel que o ajuda a depurar a tabela que acionou o alerta.
Desativar o monitoramento da qualidade dos dados
Para desativar o monitoramento da qualidade dos dados, clique no botão de alternância do monitoramento da qualidade dos dados para desativá-lo. O trabalho de monitoramento da qualidade dos dados será excluído e todas as tabelas e informações de monitoramento da qualidade dos dados serão excluídas.
Limitação
O monitoramento da qualidade dos dados não suporta o seguinte:
- visualização, visualização materializada ou tabelas de transmissão.
- A determinação da integridade não leva em conta account métricas como a fração de nulos, valores zero ou NaN.
- Indicadores de saúde para completude
- " Backtesting " para verificar se há frescor ou integridade com base em eventos
Avançado
Revisão dos resultados dos registros
Em default, os resultados de uma varredura de monitoramento da qualidade dos dados são salvos no esquema em uma tabela chamada _quality_monitoring_summary
, à qual somente o usuário que ativou o monitoramento da qualidade dos dados tem acesso. Para configurar o nome ou a localização da tabela de registro, consulte Definir parâmetros para avaliação de atualização e integridade.
A tabela tem as seguintes informações:
Nome da coluna | Tipo | Descrição |
---|---|---|
| carimbo de data/hora | começar a hora de execução do escaneamento. |
| string | Catálogo que contém o esquema no qual a varredura foi executada. |
| string | Esquema no qual a varredura foi executada. |
| string | Nome da tabela digitalizada. |
| string |
|
| string | Resultado da verificação de qualidade. Um dos |
| map | Esse campo fornece os valores que foram usados para determinar o status da tabela. Para obter detalhes, consulte informações sobre depuração. |
| string | Se o site |
| string | Link para a linhagem da tabela tab no Catalog Explorer, para ajudar a investigar a causa raiz de uma tabela |
| struct | Impacto de um problema de qualidade de dados identificado no ativo downstream. Para obter detalhes, consulte Informações sobre o impacto downstream. |
depuração informações
Na tabela de resultados de registros, a coluna additional_debug_info
fornece informações no seguinte formato:
[
<metric_name>:
actual_value: <value> ,
expectation: “actual value < [predicted_value]”
is_violated: true/false,
error_code: <error_code>
from_backtesting: true/false
...
]
Por exemplo:
{
commit_staleness:
actual_value: "31 min"
expectation: "actual_value < 1 day"
is_violated: "false"
error_code: "None"
from_backtesting: "false"
}
Informações sobre o impacto downstream
Na tabela de resultados de registros, a coluna downstream_impact
é uma struct
com os seguintes campos:
campo | Tipo | Descrição |
---|---|---|
| int | Valor inteiro entre 1 e 4 indicando a gravidade do problema de qualidade dos dados. Valores mais altos indicam maior interrupção. |
| int | Número de tabelas downstream que podem ser afetadas pelo problema identificado. |
| int | Número total de consultas que fizeram referência às tabelas afetadas e downstream nos últimos 30 dias. |
Defina parâmetros para avaliação de frescor e integridade
Para editar os parâmetros que controlam o trabalho, como a frequência de execução do trabalho ou o nome da tabela de resultados de logs, o senhor deve editar os parâmetros do trabalho na tarefa tab da página do trabalho.
As seções a seguir descrevem configurações específicas. Para obter informações sobre como definir os parâmetros de tarefa, consulte Configurar parâmetros de tarefa.
programação e notificações
Para personalizar a programação do trabalho ou para configurar notificações, use as configurações da programação & Triggers na página do trabalho. Consulte Automatização de trabalhos com programas e acionadores.
Nome da tabela de registro
Para alterar o nome da tabela de registro ou salvar a tabela em um esquema diferente, edite o parâmetro Job tarefa logging_table_name
e especifique o nome desejado. Para salvar a tabela de registro em um esquema diferente, especifique o nome completo de 3 níveis.
Personalize as avaliações freshness
e completeness
Todos os parâmetros desta seção são opcionais. Em default, o monitoramento da qualidade dos dados determina limites com base em uma análise do histórico da tabela.
Esses parâmetros são campos dentro do parâmetro da tarefa metric_configs
. O formato de metric_configs
é uma cadeia de caracteres JSON com os seguintes valores default:
[
{
"disable_check": false,
"tables_to_skip": null,
"tables_to_scan": null,
"table_threshold_overrides": null,
"table_latency_threshold_overrides": null,
"static_table_threshold_override": null,
"event_timestamp_col_names": null,
"metric_type": "FreshnessConfig"
},
{
"disable_check": true,
"tables_to_skip": null,
"tables_to_scan": null,
"table_threshold_overrides": null,
"metric_type": "CompletenessConfig"
}
]
Os parâmetros a seguir podem ser usados para as avaliações freshness
e completeness
.
Nome do campo | Descrição | Exemplo |
---|---|---|
| Somente as tabelas especificadas são digitalizadas. |
|
| As tabelas especificadas são ignoradas durante a verificação. |
|
| Scan não é execução. Use esse parâmetro se quiser desativar somente o escaneamento |
|
Os parâmetros a seguir se aplicam somente à avaliação freshness
:
Nome do campo | Descrição | Exemplo |
---|---|---|
| Lista de colunas de carimbo de data/hora que as tabelas em seu esquema podem ter. Se uma tabela tiver uma dessas colunas, ela será marcada como |
|
| Um dicionário que consiste em nomes de tabelas e limites (em segundos) que especificam o intervalo máximo desde a última atualização da tabela antes de marcar uma tabela como |
|
| Um dicionário que consiste em nomes de tabelas e limites de latência (em segundos) que especificam o intervalo máximo desde o último registro de data e hora na tabela antes de marcar uma tabela como |
|
| Quantidade de tempo (em segundos) antes de uma tabela ser considerada estática (ou seja, uma que não está mais atualizada). |
|
O parâmetro a seguir se aplica somente à avaliação completeness
:
Nome do campo | Descrição | Exemplo |
---|---|---|
| Um dicionário que consiste em nomes de tabelas e limites de volume de linhas (especificados como números inteiros). Se o número de linhas adicionadas a uma tabela nas últimas 24 horas for menor que o limite especificado, a tabela será marcada como |
|