Pular para o conteúdo principal

Pipeline declarativoLakeFlow

LakeFlow Declarative pipeline é um framework para criação de lotes e transmissão de pipeline de dados em SQL e Python. Casos de uso comuns para o pipeline declarativo LakeFlow incluem coleta de dados de fontes como armazenamento cloud (como Amazon S3, Azure ADLS Gen2 e Google Cloud Storage) e barramentos de mensagens (como Apache Kafka, Amazon Kinesis, Google Pub/Sub, Azure EventHub e Apache Pulsar), além de lotes incrementais e transformações de transmissão.

Esta seção fornece informações detalhadas sobre o uso do pipeline declarativo LakeFlow . Os tópicos a seguir ajudarão você a começar.

tópico

Descrição

Conceitos de pipeline declarativo LakeFlow

Aprenda sobre os conceitos de alto nível do pipeline declarativo LakeFlow , incluindo pipeline, fluxos, tabelas de transmissão e visualização materializada.

Tutoriais

Siga o tutorial para obter experiência prática com o uso do pipeline declarativo LakeFlow .

Desenvolver pipelines

Aprenda a desenvolver e testar pipelines que criam fluxos para ingestão e transformação de dados.

Configurar pipeline

Aprenda a programar e configurar pipeline.

Monitorar pipelines

Aprenda a monitorar seu pipeline e solucionar problemas de consultas pipeline .

Desenvolvedores

Aprenda a usar Python e SQL ao desenvolver o pipeline declarativo LakeFlow .

Pipeline declarativo LakeFlow no Databricks SQL

Aprenda sobre o uso de tabelas de transmissão de pipeline declarativo LakeFlow e visualização materializada no Databricks SQL.

Mais informações