Pular para o conteúdo principal

Pacotes de autores no workspace

info

Visualização

Databricks O ativo Bundles no site workspace está em visualização pública.

Databricks Os pacotes ativos podem ser criados e modificados diretamente no site workspace.

Para saber os requisitos para o uso de pacotes no site workspace, consulte Databricks ativo Bundles in the workspace requirements.

Para obter mais informações sobre pacotes, consulte What are Databricks ativo Bundles?

Crie um pacote

Para criar um pacote no site Databricks workspace:

  1. Navegue até a pasta Git onde deseja criar o pacote.

  2. Clique no botão Create e, em seguida, clique em ativo bundle . Como alternativa, clique com o botão direito do mouse na pasta Git ou em seu kebab associado na árvore workspace e clique em Create > ativo bundle :

    Criar um pacote ativo

  3. Na caixa de diálogo Create an ativo bundle (Criar um pacote ativo), dê um nome ao pacote ativo, como totally-awesome-bundle (pacote totalmente incrível) . O nome do pacote só pode conter letras, números, traços e sublinhado. Escolha se o senhor deseja criar um pacote vazio, um pacote que executa uma amostra do Python Notebook ou um pacote que executa o SQL.

    Criar nova caixa de diálogo do pacote ativo

  4. Clique em Criar .

    🆕

Isso cria um pacote inicial na pasta Git, que inclui um arquivo de configuração .gitignore Git e o arquivo Databricks ativo Bundles databricks.yml necessário. O arquivo databricks.yml contém a configuração principal do pacote. Para obter detalhes, consulte Databricks ativo Bundle configuration.

Todas as alterações feitas nos arquivos do pacote podem ser sincronizadas com o repositório remoto associado à pasta Git. Uma pasta Git pode conter muitos pacotes.

Adicionar novos arquivos a um pacote

Um pacote contém o arquivo databricks.yml que define as configurações de implantação e workspace, arquivos de origem, como Notebook, arquivos Python e arquivos de teste, e definições e configurações para Databricks recurso, como LakeFlow Jobs e LakeFlow Declarative pipeline. Como em qualquer pasta workspace, o senhor pode adicionar novos arquivos ao seu pacote.

dica

Para abrir um novo tab no pacote view que permite modificar os arquivos do pacote, navegue até a pasta do pacote em workspace e clique em Open in editor (Abrir no editor ) à direita do nome do pacote.

Adicionar arquivos de código-fonte

Para adicionar um novo Notebook ou outros arquivos a um pacote na interface do usuário do workspace, navegue até a pasta do pacote e, em seguida, clique em

  • Clique em Create (Criar ) no canto superior direito e escolha um dos seguintes tipos de arquivo para adicionar ao seu pacote: Notebook, File (Arquivo), Query (Consulta), Dashboard (Painel).
  • Como alternativa, clique no kebab à esquerda de Compartilhar e importe um arquivo.
nota

Para que o arquivo faça parte da implementação do pacote, depois de adicionar um arquivo à pasta do pacote, o senhor deve adicioná-lo à configuração do pacote databricks.yml ou criar um arquivo de definição de trabalho ou pipeline que o inclua. Consulte Adicionar um recurso existente a um pacote.

Adicionar uma definição de trabalho

Os pacotes contêm definições de recursos, como Job e pipeline, a serem incluídos em uma implementação. Essas definições são especificadas em YAML ou Python, e o senhor pode criar e editar essas configurações diretamente na interface do usuário.

Para criar um arquivo de configuração de pacote que define um trabalho:

  1. Navegue até a pasta do pacote no site workspace onde o senhor deseja definir um novo trabalho.

  2. À direita do nome do pacote, clique em Open in editor (Abrir no editor ) para navegar até o editor de pacotes view.

  3. Clique no ícone de implantação do pacote para alternar para o painel Implantações.

    Ícone do painel de implantações

  4. Em Bundle recurso , clique em Create e, em seguida, em Create new Job definition .

    Criar definição de trabalho

  5. Digite um nome para o trabalho no campo Job name da caixa de diálogo Create Job definition (Criar definição de trabalho ). Clique em Criar .

  6. Adicione YAML ao arquivo de definição de trabalho que foi criado. O exemplo YAML a seguir define um Job para executar um Notebook:

    YAML
    resources:
    jobs:
    run_notebook:
    name: run-notebook
    queue:
    enabled: true
    tasks:
    - task_key: my-notebook-task
    notebook_task:
    notebook_path: ../helloworld.ipynb

Para obter detalhes sobre a definição de um trabalho em YAML, consulte Trabalho. Para obter a sintaxe YAML de outros tipos de tarefa de trabalho compatíveis, consulte Adicionar tarefa ao trabalho em Databricks ativo Bundles.

Adicionar uma definição de pipeline

Para criar um arquivo de configuração de pacote que define um pipeline:

  1. Navegue até a pasta do pacote no site workspace onde o senhor deseja definir um novo pipeline.

  2. À direita do nome do pacote, clique em Open in editor (Abrir no editor ) para navegar até o editor de pacotes view.

  3. Clique no ícone de implantação do pacote para alternar para o painel Implantações.

    Ícone do painel de implantações

  4. Em Bundle recurso , clique em Create e, em seguida, em Create new pipeline definition .

  5. Digite um nome para pipeline no campo de nome do pipeline da caixa de diálogo Create pipeline definition (Criar definição de ).

  6. Clique no ícone da pasta à direita do campo Código-fonte e selecione o código para essa pipeline para execução. Clique em Criar .

Para um pipeline com o nome test_pipeline que executa um Notebook, o YAML a seguir seria criado em um arquivo test_pipeline.pipeline.yml:

YAML
resources:
pipelines:
test_pipeline:
name: test_pipeline
libraries:
- notebook:
path: ../helloworld.ipynb
serverless: true
catalog: main
target: test_pipeline_${bundle.environment}

Para obter detalhes sobre a definição de um pipeline em YAML, consulte pipeline.

Adicionar um recurso existente a um pacote

O senhor pode adicionar recursos existentes, como o pipeline, e também ativos, como o Notebook e outros arquivos de origem, ao seu pacote. No entanto, você deve defini-las na configuração do pacote para incluí-las na implantação do pacote. O exemplo a seguir adiciona um pipeline existente a um pacote.

Supondo que o senhor tenha um pipeline chamado taxifilter que executa o taxifilter.ipynb Notebook em seu workspace compartilhado:

  1. Na barra lateral do site Databricks workspace, clique em Jobs & pipeline .

  2. Opcionalmente, selecione os filtros pipeline e Owned by me .

  3. Selecione o pipeline taxifilter existente.

  4. Na página do pipeline, clique no botão à esquerda do botão Modo de implantação de desenvolvimento . Em seguida, clique em view settings YAML .

  5. Clique no ícone de cópia para copiar a configuração do pacote para o pipeline.

  6. Navegue até seu pacote no espaço de trabalho .

  7. Clique no ícone de implantação do pacote para alternar para o painel Implantações.

  8. Em Bundle recurso , clique em Create e, em seguida, em Create new pipeline definition .

  9. Digite taxifilter no campo de nome do pipeline da caixa de diálogo Create pipeline definition (Criar definição de ). Clique em Criar .

  10. Cole a configuração do pipeline existente no arquivo. Este exemplo pipeline é definido para executar o taxifilter Notebook:

    YAML
    resources:
    pipelines:
    taxifilter:
    name: taxifilter
    catalog: main
    libraries:
    - notebook:
    path: /Workspace/Shared/taxifilter.ipynb
    target: taxifilter_${bundle.environment}

Agora, o senhor pode implantar o pacote e, em seguida, executar o recurso pipeline por meio da UI.