Tutorial de Pacotes de Automação Declarativa
Os Declarative Automation Bundles (anteriormente conhecidos como Databricks Ativo Bundles) descrevem recursos Databricks como Jobs e pipelines, como arquivos de origem, permitindo incluir metadados junto com esses arquivos para provisionar infraestrutura e outros recursos, além de fornecer uma definição completa de um projeto, tudo empacotado como um único projeto implantável. Veja O que são pacotes de automação declarativa?
Esta página fornece uma visão geral dos tutoriais disponíveis para ajudá-lo a aprender como desenvolver Pacotes de Automação Declarativa.
Tutorial | Descrição |
|---|---|
Crie um pacote para gerenciar um Job programaticamente. O pacote é criado usando o padrão de pacote default Automation Bundles para Python e consiste em um Notebook e na definição de um Job para executá-lo. Em seguida, você valida, implanta e executa o trabalho implantado em seu workspace Databricks . | |
Desenvolva um pipeline com pacotes de automação declarativa. | Crie um pacote para gerenciar um pipeline programaticamente. O pacote é criado usando o padrão de pacote default Automation Bundles para Python e consiste em um exemplo de código pipeline , além da definição do pipeline e do Job para executá-lo. Em seguida, você valida, implanta e executa o pipeline implantado em seu workspace Databricks . |
Crie um arquivo Python wheel usando Declarative Automation Bundles. | Construa, implante e execute uma Python wheel como parte de um projeto de Declarative Automation Bundles. |
Crie um arquivo JAR Scala usando Declarative Automation Bundles. | Construir, implantar e executar um JAR Scala como parte de um projeto de Bundles de Automação Declarativa. |
Gerenciar aplicativos Databricks usando pacotes de automação declarativa | Desenvolva um aplicativo Databricks localmente e, em seguida, configure um pacote para gerenciar as implantações do aplicativo no workspace Databricks . |
Criar um pacote MLOps Stacks. Uma pilha de MLOps é um projeto de MLOps na Databricks que segue as práticas recomendadas de produção prontas para uso. | |
Criar um pacote do zero, sem usar um padrão. Esse pacote simples consiste em dois notebooks e na definição de um Databricks Job para executar esses notebooks. Em seguida, o senhor valida, implanta e executa o Job em seu Databricks workspace. | |
Crie um padrão personalizado de Pacotes de Automação Declarativa para criar pacotes que executem um Job com uma tarefa Python específica em um cluster usando uma imagem de contêiner Docker específica. Para obter informações sobre pacote personalizado padrão, consulte Pacote personalizado padrão. |