Databricks tutorial do ativo Bundles
Databricks Os ativo Bundles descrevem Databricks recurso como Job e pipeline como arquivos de origem, permitem que o senhor inclua metadados junto com esses arquivos de origem para provisionamento de infraestrutura e outros recursos, e fornecem uma definição de ponta a ponta de um projeto, tudo isso como um único projeto implementável. Veja o que são Databricks ativo Bundles?
Esta página fornece uma visão geral dos tutoriais disponíveis para ajudá-lo a aprender como desenvolver os pacotes ativos do Databricks.
Tutorial | Descrição |
---|---|
Crie um pacote para gerenciar programaticamente um trabalho. O pacote é criado usando o Databricks ativo Bundles default bundle padrão para Python, que consiste em um Notebook e na definição de um Job para executá-lo. Em seguida, o senhor valida, implanta e executa o Job implantado em seu site Databricks workspace. | |
Crie um pacote para gerenciar programaticamente um pipeline DLT. O pacote é criado usando o Databricks ativo Bundles default bundle padrão para Python, que consiste em um Notebook e na definição de um pipeline e de um Job para executá-lo. Em seguida, o senhor valida, implanta e executa o implantado pipeline em seu Databricks workspace. | |
Crie um arquivo Python wheel usando Databricks ativo Bundles | Construir, implantar e executar o site Python wheel como parte de um projeto Databricks ativo Bundles. |
Construir, implantar e executar o site Scala JAR como parte de um projeto Databricks ativo Bundles. | |
Criar um pacote MLOps Stacks. Uma pilha de MLOps é um projeto de MLOps na Databricks que segue as práticas recomendadas de produção prontas para uso. | |
Criar um pacote do zero, sem usar um padrão. Esse pacote simples consiste em dois notebooks e na definição de um Databricks Job para executar esses notebooks. Em seguida, o senhor valida, implanta e executa o Job em seu Databricks workspace. | |
Crie um padrão personalizado de Databricks ativo Bundles para criar bundles que executam um trabalho com uma tarefa Python específica em um clustering usando uma imagem de contêiner Docker específica. Para obter informações sobre o padrão de pacote personalizado, consulte Padrão de pacote personalizado. |