Pular para o conteúdo principal

Desenvolva o código do pipeline declarativo LakeFlow em seu ambiente de desenvolvimento local

Você pode criar o código-fonte do pipeline Python no seu ambiente de desenvolvimento integrado (IDE) preferido.

Não é possível validar ou executar atualizações no código do pipeline declarativo LakeFlow escrito em um IDE. Você deve implantar os arquivos de código-fonte de volta em um workspace Databricks e configurá-los como parte do pipeline declarativo LakeFlow .

Este artigo fornece uma visão geral do suporte ao desenvolvimento de IDE local. Para desenvolvimento e testes mais interativos, Databricks recomenda usar o LakeFlow Pipelines Editor. Consulte Desenvolver e depurar pipeline ETL com o LakeFlow Pipelines Editor.

Configurar um IDE local para desenvolvimento de pipeline

O Databricks fornece um módulo Python para desenvolvimento local distribuído pelo PyPI. Para obter instruções de instalação e uso, consulte o stubPython para o pipeline declarativo LakeFlow.

Este módulo tem as interfaces e referências de docstring para a interface Python do pipeline declarativo LakeFlow , fornecendo verificação de sintaxe, preenchimento automático e verificação de tipo de dados enquanto você escreve o código no seu IDE.

Este módulo inclui interfaces, mas nenhuma implementação funcional. Você não pode usar esta biblioteca para criar ou executar o pipeline declarativo LakeFlow localmente.

Você pode usar Databricks ativo Bundles para empacotar e distribuir código-fonte e configurações para um workspace de destino e para acionar a execução de uma atualização em um pipeline configurado dessa maneira. Consulte Converter pipeline declarativo LakeFlow em um projeto de pacote ativo Databricks.

A extensão Databricks para Visual Studio Code tem funcionalidade adicional para trabalhar com pipeline usando Databricks ativo Bundles. Veja Bundle recurso Explorer.

Sincronize o código pipeline do seu IDE com um workspace

A tabela a seguir resume as opções para sincronizar o código-fonte pipeline entre seu IDE local e um workspace Databricks :

Ferramenta ou padrão

Detalhes

Databricks Asset Bundles

Use os pacotes ativo Databricks para desenvolver pipeline ativos que variam em complexidade, desde um único arquivo de código-fonte até configurações para vários pipelines, trabalhos e arquivos de código-fonte. Consulte Converter pipeline declarativo LakeFlow em um projeto de pacote ativo Databricks.

Extensão do Databricks para Visual Studio Code

Databricks fornece uma integração com o Visual Studio Code que inclui sincronização fácil entre seu IDE local e arquivos workspace . Esta extensão também fornece ferramentas para usar Databricks ativo Bundles para implantar pipeline ativo. Veja O que é a extensão Databricks para o Visual Studio Code?.

arquivos de espaço de trabalho

Você pode usar os arquivos workspace Databricks para upload o código-fonte pipeline no seu workspace Databricks e depois importar esse código para um pipeline. Veja O que são arquivos workspace ?.

Pastas Git

As pastas Git permitem que você sincronize o código entre seu ambiente local e workspace Databricks usando um repositório Git como intermediário. Veja o que são pastas Git do Databricks.