Pular para o conteúdo principal

LakeFlow Pipeline declarativo

LakeFlow O pipeline declarativo é uma estrutura para criar lotes e pipeline de transmissão de dados em SQL e Python. Casos de uso comuns para o pipeline declarativo LakeFlow incluem a ingestão de dados de fontes como armazenamento em nuvem (como Amazon S3, Azure ADLS Gen2 e Google Cloud Storage) e barramentos de mensagens (como Apache Kafka, Amazon Kinesis, Google Pub/Sub, Azure EventHub e Apache Pulsar), além de lotes incrementais e transformações de transmissão.

Esta seção fornece informações detalhadas sobre o uso do pipeline declarativo LakeFlow. Os tópicos a seguir o ajudarão a começar.

tópico

Descrição

LakeFlow Conceitos de pipeline declarativo

Conheça os conceitos de alto nível do pipeline declarativo LakeFlow, incluindo pipeline, fluxos, tabelas de transmissão e visualização materializada.

Tutoriais

Siga o tutorial para obter experiência prática com o uso do pipeline declarativo LakeFlow.

Desenvolver pipelines

Saiba como desenvolver e testar pipelines que criam fluxos para ingestão e transformação de dados.

Configurar o pipeline

Saiba como programar e configurar o pipeline.

Monitorar pipelines

Saiba como monitorar seu pipeline e solucionar problemas de pipeline queries.

Desenvolvedores

Saiba como usar Python e SQL ao desenvolver LakeFlow Declarative pipeline.

LakeFlow Pipeline declarativo em Databricks SQL

Saiba mais sobre como usar LakeFlow Tabelas de transmissão de pipeline declarativo e visualização materializada em Databricks SQL.

Mais informações