Desenvolva o código do pipeline do Delta Live Tables em seu ambiente de desenvolvimento local

Além de usar o Notebook ou o editor de arquivos em seu Databricks workspace para implementar o código pipeline que usa a interface Delta Live Tables Python , o senhor também pode desenvolver o código em seu ambiente de desenvolvimento local. Por exemplo, o senhor pode usar seu ambiente de desenvolvimento integrado (IDE) favorito, como o Visual Studio Code ou o PyCharm. Depois de escrever seu código pipeline localmente, o senhor pode movê-lo manualmente para seu Databricks workspace ou usar as ferramentas Databricks para operacionalizar seu pipeline, inclusive implantando e executando o pipeline.

Este artigo descreve as ferramentas e métodos disponíveis para desenvolver seu pipeline Python localmente e implantá-lo em seu workspace do Databricks. Também são fornecidos links para artigos que fornecem mais detalhes sobre o uso dessas ferramentas e métodos.

Obtenha verificação de sintaxe, preenchimento automático e verificação de tipo em seu IDE

Databricks fornece um módulo Python que você pode instalar em seu ambiente local para auxiliar no desenvolvimento de código para seu pipeline Delta Live Tables. Este módulo possui as interfaces e referências de docstring para a interface Python do Delta Live Tables, fornecendo verificação de sintaxe, preenchimento automático e verificação de tipo de dados conforme você escreve código em seu IDE.

Este módulo inclui interfaces, mas nenhuma implementação funcional. Você não pode usar esta biblioteca para criar ou executar um pipeline Delta Live Tables localmente. Em vez disso, use um dos métodos descritos abaixo para implantar seu código.

O módulo Python para desenvolvimento local está disponível no PyPI. Para obter instruções de instalação e uso, consulte stub Python para Delta Live Tables.

Valide, implante e execute seu código de pipeline com Databricks ativo Bundles

Depois de implementar o código do pipeline Delta Live Tables, a Databricks recomenda usar Databricks ativo Bundles para operacionalizar o código. Os pacotes ativos do Databricks fornecem recursos de CI/CD para o ciclo de vida de desenvolvimento do pipeline, incluindo validação dos artefatos do pipeline, empacotamento de todos os artefatos do pipeline, como código-fonte e configuração, implantação do código em seu workspace do Databricks e início de atualizações do pipeline.

Para saber como criar um pacote para gerenciar seu código de pipeline usando Databricks ativo Bundles, consulte Desenvolver um pipeline Delta Live Tables usando Databricks ativo Bundles.

Desenvolva e sincronize código de pipeline em seu IDE

Se você usar o IDE do Visual Studio Code para desenvolvimento, poderá usar o módulo Python para desenvolver seu código e, em seguida, usar a extensão Databricks para Visual Studio Code para sincronizar seu código diretamente do Visual Studio Code para seu workspace. Consulte O que é a extensão Databricks para Visual Studio Code?.

Para saber como criar um pipeline usando o código que o senhor sincronizou com o seu workspace usando a extensão Databricks para o Visual Studio Code, consulte Importar módulos Python de pastas Git ou arquivos workspace .

Sincronize manualmente o código do pipeline com o workspace do Databricks

Em vez de criar um pacote usando pacotes ativos do Databricks ou usando a extensão Databricks para Visual Studio Code, você pode sincronizar seu código com seu espaço de trabalho do Databricks e usar esse código para criar um pipeline dentro do espaço de trabalho. Isso pode ser particularmente útil durante os estágios de desenvolvimento e teste, quando você deseja iterar o código rapidamente. O Databricks oferece suporte a vários métodos para mover código do seu ambiente local para o seu workspace.

Para saber como criar um pipeline usando o código que o senhor sincronizou com o seu workspace usando um dos métodos abaixo, consulte Importar módulos Python de pastas Git ou arquivos workspace .

  • arquivosworkspace : você pode usar arquivos workspace do Databricks para upload o código-fonte do pipeline para o workspace do Databricks e, em seguida, importar esse código para um pipeline. Para saber como usar arquivos de espaço de trabalho, consulte O que são arquivos de espaço de trabalho?.

  • Databricks Git pastas: Para facilitar a colaboração e o controle de versões, Databricks recomenda o uso de pastas Databricks Git para sincronizar o código entre o ambiente local e o Databricks workspace. Git As pastas se integram ao seu provedor Git, permitindo que o senhor envie código do seu ambiente local e importe esse código para um pipeline no seu workspace. Para saber como usar as pastas Git da Databricks, consulte Integração do Git com as pastas Git da Databricks.

  • Copie manualmente o seu código: você pode copiar o código do seu ambiente local, colar o código em um Databricks Notebook e usar a UI do Delta Live Tables para criar um novo pipeline com o Notebook. Para aprender como criar um pipeline na UI, consulte Tutorial: execução do seu primeiro pipeline Delta Live Tables.

Implementar fluxo de trabalho personalizado de CI/CD

Se você preferir escrever scripts para gerenciar seu pipeline, o Databricks tem uma API REST, a interface de linha de comando (CLI) do Databricks e kits de desenvolvimento de software (SDKs) para linguagens de programação populares. Você também pode usar o recurso databricks_pipeline no provedor Databricks Terraform.

Para saber como usar a API REST, consulte Delta Live Tables na Referência da API REST do Databricks.

Para saber como usar a CLI do Databricks, consulte O que é a CLI do Databricks?.

Para saber como usar o Databricks Python SDK, consulte Databricks SDK para Python e os exemplos de pipeline nos repositórios GitHub do projeto.

Para saber como usar SDKs do Databricks para outras linguagens, consulte Usar SDKs com Databricks.

Para saber como usar o provedor Databricks Terraform, consulte o provedor Databricks Terraform e a documentação do Terraform para o recurso databricks_pipeline.