Definir monitoramento personalizado do pipeline declarativo LakeFlow com ganchos de eventos
Visualização
O suporte para ganchos de eventos está em Visualização Pública.
Você pode usar ganchos de eventos para adicionar funções de retorno de chamada personalizadas Python que são executadas quando os eventos são persistidos no logde eventos de um pipeline. Você pode usar ganchos de eventos para implementar soluções personalizadas de monitoramento e alerta. Por exemplo, você pode usar ganchos de eventos para enviar e-mails ou gravar em um log quando eventos específicos ocorrerem ou para integrar com soluções de terceiros para monitorar eventos pipeline .
Defina um gancho de evento com uma função Python que aceita um único argumento, onde o argumento é um dicionário que representa um evento. Em seguida, inclua os ganchos de eventos como parte do código-fonte de um pipeline. Qualquer gancho de evento definido em um pipeline tentará processar todos os eventos gerados durante cada atualização do pipeline. Se o seu pipeline for composto de vários arquivos de código-fonte, quaisquer ganchos de eventos definidos serão aplicados ao pipeline inteiro. Embora os ganchos de eventos estejam incluídos no código-fonte do seu pipeline, eles não estão incluídos no gráfico do pipeline.
Você pode usar ganchos de eventos com pipeline que publicam no Hive metastore ou no Unity Catalog.
- Python é a única linguagem suportada para definir ganchos de eventos. Para definir funções Python personalizadas que processam eventos em um pipeline implementado usando a interface SQL , adicione as funções personalizadas em um arquivo de origem Python separado que é executado como parte do pipeline. As funções Python são aplicadas a todo o pipeline quando o pipeline é executado.
- Os ganchos de evento são acionados somente para eventos em que o maturity_level é
STABLE
. - Os ganchos de eventos são executados de forma assíncrona a partir de atualizações de pipeline, mas de forma síncrona com outros ganchos de eventos. Isso significa que apenas um único gancho de evento é executado por vez, e outros ganchos de evento esperam para serem executados até que o gancho de evento em execução no momento seja concluído. Se um gancho de evento for executado indefinidamente, ele bloqueará todos os outros ganchos de evento.
- O pipeline declarativo LakeFlow tenta executar cada gancho de evento em cada evento emitido durante uma atualização pipeline . Para ajudar a garantir que os ganchos de eventos de atraso tenham tempo para processar todos os eventos enfileirados, o pipeline declarativo LakeFlow aguarda um período fixo não configurável antes de encerrar a compute que executa o pipeline. Entretanto, não há garantia de que todos os ganchos sejam acionados em todos os eventos antes que o compute seja encerrado.
Monitorar o processamento do gancho de evento
Use o tipo de evento hook_progress
no log eventos do pipeline declarativo LakeFlow para monitorar o estado dos ganchos de eventos de uma atualização. Para evitar dependências circulares, os ganchos de eventos não são acionados para eventos hook_progress
.
Definir um gancho de evento
Para definir um gancho de evento, use o decorador on_event_hook
:
@dp.on_event_hook(max_allowable_consecutive_failures=None)
def user_event_hook(event):
# Python code defining the event hook
O max_allowable_consecutive_failures
descreve o número máximo de vezes consecutivas que um gancho de evento pode falhar antes de ser desabilitado. Uma falha de gancho de evento é definida como qualquer momento em que o gancho de evento lança uma exceção. Se um gancho de evento estiver desabilitado, ele não processará novos eventos até que o pipeline seja reiniciado.
max_allowable_consecutive_failures
deve ser um inteiro maior ou igual a 0
ou None
. Um valor de None
(atribuído por default) significa que não há limite para o número de falhas consecutivas permitidas para o gancho de evento, e o gancho de evento nunca é desabilitado.
Falhas de ganchos de eventos e desativação de ganchos de eventos podem ser monitoradas no log de eventos como eventos hook_progress
.
A função de gancho de evento deve ser uma função Python que aceite exatamente um parâmetro, uma representação de dicionário do evento que acionou esse gancho de evento. Qualquer valor de retorno da função de gancho de evento é ignorado.
Exemplo: Selecione eventos específicos para processamento
O exemplo a seguir demonstra um gancho de evento que seleciona eventos específicos para processamento. Especificamente, este exemplo aguarda até que os eventos do pipeline STOPPING
sejam recebidos e, em seguida, envia uma mensagem para os logs do driver stdout
.
@dp.on_event_hook
def my_event_hook(event):
if (
event['event_type'] == 'update_progress' and
event['details']['update_progress']['state'] == 'STOPPING'
):
print('Received notification that update is stopping: ', event)
Exemplo: enviar todos os eventos para um canal do Slack
O exemplo a seguir implementa um gancho de evento que envia todos os eventos recebidos para um canal do Slack usando a API do Slack.
Este exemplo usa um segredo Databricks para armazenar com segurança os tokens necessários para autenticação na API do Slack.
from pyspark import pipelines as dp
import requests
# Get a Slack API token from a Databricks secret scope.
API_TOKEN = dbutils.secrets.get(scope="<secret-scope>", key="<token-key>")
@dp.on_event_hook
def write_events_to_slack(event):
res = requests.post(
url='https://slack.com/api/chat.postMessage',
headers={
'Content-Type': 'application/json',
'Authorization': 'Bearer ' + API_TOKEN,
},
json={
'channel': '<channel-id>',
'text': 'Received event:\n' + event,
}
)
Exemplo: Configurar um gancho de evento para desabilitar após quatro falhas consecutivas
O exemplo a seguir demonstra como configurar um gancho de evento que será desabilitado se falhar quatro vezes consecutivas.
from pyspark import pipelines as dp
import random
def run_failing_operation():
raise Exception('Operation has failed')
# Allow up to 3 consecutive failures. After a 4th consecutive
# failure, this hook is disabled.
@dp.on_event_hook(max_allowable_consecutive_failures=3)
def non_reliable_event_hook(event):
run_failing_operation()
Exemplo: pipeline declarativo LakeFlow com um gancho de evento
O exemplo a seguir demonstra como adicionar um gancho de evento ao código-fonte de um pipeline. Este é um exemplo simples, mas completo, de uso de ganchos de eventos com um pipeline.
from pyspark import pipelines as dp
import requests
import json
import time
API_TOKEN = dbutils.secrets.get(scope="<secret-scope>", key="<token-key>")
SLACK_POST_MESSAGE_URL = 'https://slack.com/api/chat.postMessage'
DEV_CHANNEL = 'CHANNEL'
SLACK_HTTPS_HEADER_COMMON = {
'Content-Type': 'application/json',
'Authorization': 'Bearer ' + API_TOKEN
}
# Create a single dataset.
@dp.table
def test_dataset():
return spark.range(5)
# Definition of event hook to send events to a Slack channel.
@dp.on_event_hook
def write_events_to_slack(event):
res = requests.post(url=SLACK_POST_MESSAGE_URL, headers=SLACK_HTTPS_HEADER_COMMON, json = {
'channel': DEV_CHANNEL,
'text': 'Event hook triggered by event: ' + event['event_type'] + ' event.'
})