Pular para o conteúdo principal

gatilho (DataStreamWriter)

Define o gatilho para a consulta de transmissão. Se não for definido, a execução da consulta será a mais rápida possível, equivalente a processingTime='0 seconds'. Apenas um parâmetro de gatilho pode ser definido por vez.

Para mais informações, consulte Configurar intervalos de disparo de transmissão estruturada.

Sintaxe

trigger(*, processingTime=None, once=None, continuous=None, availableNow=None, realTime=None)

Parâmetros

Parâmetro

Tipo

Descrição

processingTime

str, opcional

Um intervalo de tempo de processamento de strings (por exemplo, '5 seconds', '1 minute'). Executar uma consulta em microlote periodicamente com base no tempo de processamento.

once

booleano, opcional

Se True, processa apenas um lote de dados e, em seguida, encerra a consulta.

continuous

str, opcional

Uma sequência de intervalos de tempo (por exemplo, '5 seconds'). execução de uma consulta contínua com um determinado intervalo de ponto de verificação.

availableNow

booleano, opcional

Se True, processa todos os dados disponíveis em vários lotes e, em seguida, encerra a consulta.

realTime

str, opcional

Um lote de strings de duração (por exemplo, '5 seconds'). execução de consulta em modo tempo real com lotes na duração especificada.

Devoluções

DataStreamWriter

Exemplos

Python
df = spark.readStream.format("rate").load()

Acionar a execução a cada 5 segundos:

Python
df.writeStream.trigger(processingTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Acionar execução contínua a cada 5 segundos:

Python
df.writeStream.trigger(continuous='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Processar todos os dados disponíveis em vários lotes:

Python
df.writeStream.trigger(availableNow=True)
# <...streaming.readwriter.DataStreamWriter object ...>

Acionar execução em tempo real a cada 5 segundos:

Python
df.writeStream.trigger(realTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>