executar um Notebook Python como um Job usando a extensão Databricks para Visual Studio Code

Este artigo descreve como executar um Notebook Python como um Job do Databricks usando a extensão Databricks para Visual Studio Code. Consulte O que é a extensão Databricks para Visual Studio Code?.

Para executar um arquivo Python como um Job do Databricks, consulte execução de um arquivo Python como um Job usando a extensão Databricks para Visual Studio Code. Para executar um R, Scala ou SQL Notebook como um Job do Databricks, consulte execução de um R, Scala ou SQL Notebook como um Job usando a extensão Databricks para Visual Studio Code.

Esta informação pressupõe que você já instalou e configurou a extensão Databricks para Visual Studio Code. Consulte Instalar a extensão Databricks para Visual Studio Code.

Com a extensão e seu projeto de código abertos, faça o seguinte:

Observação

O procedimento a seguir usa a extensão Databricks para o Visual Studio Code, versão 1, que está disponível de forma geral. Para concluir este procedimento para a extensão Databricks para Visual Studio Code, versão 2, atualmente em Private Preview, avance para a execução de um arquivo Python como um Job usando a extensão Databricks para Visual Studio Code, versão 2.

  1. Em seu projeto de código, abra o Python Notebook que deseja executar como Job.

    Dica

    Para criar um arquivo Python Notebook no Visual Studio Code, comece clicando em File > New File, selecione Python File e salve o novo arquivo com uma extensão de arquivo .py.

    Para transformar o arquivo .py em um Databricks Notebook, adicione o comentário especial # Databricks notebook source ao início do arquivo e adicione o comentário especial # COMMAND ---------- antes de cada célula. Para obter mais informações, consulte Importar um arquivo e convertê-lo em um Notebook.

    Um arquivo de código Python formatado como um notebook do Databricks1
  2. Faça uma das seguintes opções:

    • Na Explorer view (view > Explorer ), clique com o botã Notebook o direito no arquivo e selecion e Arquivo de execução como fluxo de trabalho no Databricks n o menu de contexto.

      Arquivo de execução como fluxo de trabalho no comando 1 do menu de contexto do Databricks
    • Na barra de título do editor de arquivos Notebook , clique na seta suspensa ao lado do ícone de reprodução (execução ou depuração). Em seguida, na lista suspensa, clique em Arquivo de execução como fluxo de trabalho no Databricks.

      Arquivo de execução como fluxo de trabalho no comando 2 do editor Databricks

Uma nova tab do editor é exibida, intitulada Databricks Job execução. A Notebook execução do como um Job no workspace e o Notebook e sua saída são exibidos na tabárea Saída da nova do editor.

Para view informações sobre a execução do trabalho, clique no link Task run ID na do editor Databricks Job Run tab. Seu workspace é aberto e os detalhes da execução do Job são exibidos no workspace.

executar um arquivo Python como um Job usando a extensão Databricks para Visual Studio Code, versão 2

Observação

A extensão Databricks para Visual Studio Code, versão 2, está em Private Preview.

Este procedimento pressupõe que o senhor já tenha instalado e configurado a extensão Databricks para o Visual Studio Code, versão 2. Consulte Instalar e abrir a extensão Databricks para o Visual Studio Code, versão 2.

  1. Em seu projeto de código, abra o Python Notebook que deseja executar como Job.

    Dica

    Para criar um arquivo Python Notebook no Visual Studio Code, comece clicando em File > New File, selecione Python File e salve o novo arquivo com uma extensão de arquivo .py.

    Para transformar o arquivo .py em um Databricks Notebook, adicione o comentário especial # Databricks notebook source ao início do arquivo e adicione o comentário especial # COMMAND ---------- antes de cada célula. Para obter mais informações, consulte Importar um arquivo e convertê-lo em um Notebook.

    Um arquivo de código Python formatado como um notebook do Databricks1
  2. Faça uma das seguintes opções:

    • No Explorer view (view > Explorer), clique com o botão direito do mouse no arquivo Notebook e selecione execução em Databricks > execução File as fluxo de trabalho no menu de contexto.

    • Na barra de título do editor de arquivos Notebook, clique no ícone Executar no Databricks e, em seguida, clique em Executar arquivo como fluxo de trabalho.

Uma nova tab do editor é exibida, intitulada Databricks Job execução. A Notebook execução do como um Job no workspace e o Notebook e sua saída são exibidos na tabárea Saída da nova do editor.

Para view informações sobre a execução do trabalho, clique no link Task run ID na do editor Databricks Job Run tab. Seu workspace é aberto e os detalhes da execução do Job são exibidos no workspace.