Databricks ativo Bundles extension recurso

A extensão Databricks para o Visual Studio Code fornece recursos adicionais dentro do Visual Studio Code que permitem que o senhor defina, implante e execute facilmente Databricks ativos Bundles para aplicar as práticas recomendadas do CI/CD ao seu Databricks Job, Delta Live Tables pipeline e MLOps Stacks. Veja o que são Databricks ativo Bundles?

Para instalar a extensão Databricks para o Visual Studio Code, consulte Instalar a extensão Databricks para o Visual Studio Code.

Databricks Suporte a pacotes ativos em projetos

A extensão Databricks para o Visual Studio Code adiciona o seguinte recurso aos seus projetos Databricks ativo Bundles:

  • Fácil autenticação e configuração de seus pacotes ativos Databricks por meio da interface do usuário do Visual Studio Code, incluindo a seleção do perfil AuthType. Consulte Configuração de autenticação para a extensão Databricks para Visual Studio Code.

  • Um seletor de destino no painel de extensão do Databricks para alternar rapidamente entre ambientes de destino de pacotes. Consulte Alterar a implantação de destino workspace.

  • A opção Override Jobs cluster in bundle (Substituir cluster de trabalhos no pacote ) no painel de extensão permite a fácil substituição do cluster.

  • Um Bundles recurso Explorer view, que permite que o senhor navegue pelo seu recurso de pacote usando a interface do usuário do Visual Studio Code, implante o recurso do seu pacote ativo local Databricks no seu site remoto Databricks workspace com um único clique e vá diretamente para o recurso implantado no seu site workspace a partir do Visual Studio Code. Consulte Bundle recurso Explorer.

  • Uma visualização de variáveis de pacotes, que permite que o senhor procure e edite as variáveis do pacote usando a interface do usuário do Visual Studio Code. Consulte Visualização das variáveis do pacote.

Pacote recurso Explorer

O Bundle recurso Explorer view na extensão Databricks para Visual Studio Code usa as definições Job e pipeline na configuração do pacote do projeto para exibir o recurso. Ele também permite que o senhor implante e execute recursos e navegue até eles em seu site remoto Databricks workspace. Para obter informações sobre recurso de configuração de pacote, consulte recurso.

Por exemplo, dada uma definição simples de trabalho:

resources:
  jobs:
    my-notebook-job:
      name: "My Notebook Job"
      tasks:
        - task_key: notebook-task
          existing_cluster_id: 1234-567890-abcde123
          notebook_task:
            notebook_path: notebooks/my-notebook.py

O Bundle recurso Explorer view na extensão exibe o recurso Notebook Job:

Pacote recurso Explorer

Para implantar o feixe, clique no ícone cloud (implantado bundle).

implantado bundle

Para executar o trabalho, no Bundle recurso Explorer view, selecione o nome do trabalho, que é My Notebook Jobneste exemplo. Em seguida, clique no ícone play(implantado o pacote e executado o recurso).

implantado o bundle e executado o recurso

Para view o Job em execução, no Bundle recurso Explorer view, expanda o nome do Job, clique em Execution Status e, em seguida, clique no íconedo link(Open link externally).

Abrir o link do trabalho externamente

Visualização das variáveis do pacote

A visualização Bundle Variables (Variáveis do pacote ) view na extensão Databricks para Visual Studio Code exibe quaisquer variáveis personalizadas e configurações associadas definidas na configuração do pacote. O senhor também pode definir variáveis diretamente usando a visualização Bundles Variables (Variáveis de pacotes). Esses valores substituem os definidos nos arquivos de configuração do pacote. Para obter informações sobre variáveis personalizadas, consulte Variáveis personalizadas.

Por exemplo, a visualização Bundle Variables (Variáveis do pacote) view na extensão exibiria o seguinte:

Visualização das variáveis do pacote

Para a variável my_custom_var definida nesta configuração de pacote:

variables:
  my_custom_var:
    description: "Max workers"
    default: "4"

resources:
  jobs:
    my_job:
      name: my_job

      tasks:
        - task_key: notebook_task
          job_cluster_key: job_cluster
          notebook_task:
            notebook_path: ../src/notebook.ipynb

      job_clusters:
        - job_cluster_key: job_cluster
          new_cluster:
            spark_version: 13.3.x-scala2.12
            node_type_id: i3.xlarge
            autoscale:
                min_workers: 1
                max_workers: ${var.my_custom_var}