executar um R, Scala ou SQL Notebook como um Job usando a extensão Databricks para Visual Studio Code

Este artigo descreve como executar um R, Scala ou SQL Notebook como um Job do Databricks usando a extensão Databricks para Visual Studio Code. Consulte O que é a extensão Databricks para Visual Studio Code?.

Para executar um Notebook Python como um Job do Databricks, consulte execução de um Notebook Python como um Job usando a extensão Databricks para Visual Studio Code.

Esta informação pressupõe que você já instalou e configurou a extensão Databricks para Visual Studio Code. Consulte Instalar a extensão Databricks para Visual Studio Code.

Com a extensão e seu projeto de código abertos, faça o seguinte:

Observação

O procedimento a seguir usa a extensão Databricks para o Visual Studio Code, versão 1, que está disponível de forma geral. Para concluir este procedimento para a extensão Databricks para Visual Studio Code, versão 2, atualmente em Private Preview, avance para a execução de um R, Scala ou SQL Notebook como um Job usando a extensão Databricks para Visual Studio Code, versão 2.

  1. Em seu projeto de código, abra o R, Scala ou SQL Notebook que você deseja executar como Job.

    Dica

    Para criar um arquivo R, Scala ou SQL Notebook no Visual Studio Code, comece clicando em File > New File, selecione Python File e salve o novo arquivo com uma extensão de arquivo .r, .scala ou .sql, respectivamente.

    Para transformar o arquivo .r, .scala ou .sql em um Databricks Notebook, adicione o comentário especial Databricks notebook source ao início do arquivo e adicione o comentário especial COMMAND ---------- antes de cada célula. Certifique-se de usar o marcador de comentário correto para cada linguagem (# para R, // para Scala e -- para SQL). Para obter mais informações, consulte Importar um arquivo e convertê-lo em um Notebook.

    Isso é semelhante ao padrão do Python Notebook:

    Um arquivo de código Python formatado como Databricks Notebook 2
  2. Na de execução e depuração view (view > execução ), selecion e execução no Databricks como fluxo de trabalho n a lista suspensa e clique no ícone de seta verde de reprodução ( começar a depuração ).

    execução em Databricks como comando personalizado de fluxo de trabalho

    Observação

    Se Executar em Databricks como fluxo de trabalho não estiver disponível, consulte Criar uma configuração de execução personalizada para a extensão Databricks para Visual Studio Code.

Uma nova tab do editor é exibida, intitulada Databricks Job execução. A execução do Notebook como Job no workspace. O Notebook e sua saída são exibidos na tabárea Saída da nova do editor.

Para view informações sobre a execução do trabalho, clique no link Task run ID na do editor Databricks Job Run tab. Seu workspace é aberto e os detalhes da execução do Job são exibidos no workspace.

executar um R, Scala ou SQL Notebook como um Job usando a extensão Databricks para Visual Studio Code, versão 2

Observação

A extensão Databricks para Visual Studio Code, versão 2, está em Private Preview.

Este procedimento pressupõe que o senhor já tenha instalado e configurado a extensão Databricks para o Visual Studio Code, versão 2. Consulte Instalar e abrir a extensão Databricks para o Visual Studio Code, versão 2.

  1. Em seu projeto de código, abra o R, Scala ou SQL Notebook que você deseja executar como Job.

    Dica

    Para criar um arquivo R, Scala ou SQL Notebook no Visual Studio Code, comece clicando em File > New File, selecione Python File e salve o novo arquivo com uma extensão de arquivo .r, .scala ou .sql, respectivamente.

    Para transformar o arquivo .r, .scala ou .sql em um Databricks Notebook, adicione o comentário especial Databricks notebook source ao início do arquivo e adicione o comentário especial COMMAND ---------- antes de cada célula. Certifique-se de usar o marcador de comentário correto para cada linguagem (# para R, // para Scala e -- para SQL). Para obter mais informações, consulte Importar um arquivo e convertê-lo em um Notebook.

    Isso é semelhante ao padrão do Python Notebook:

    Um arquivo de código Python formatado como Databricks Notebook 2
  2. Na de execução e depuração view (view > execução ), selecion e execução no Databricks como fluxo de trabalho n a lista suspensa e clique no ícone de seta verde de reprodução ( começar a depuração ).

    execução em Databricks como comando personalizado de fluxo de trabalho

    Observação

    Se Executar em Databricks como fluxo de trabalho não estiver disponível, consulte Criar uma configuração de execução personalizada para a extensão Databricks para Visual Studio Code.

Uma nova tab do editor é exibida, intitulada Databricks Job execução. A execução do Notebook como Job no workspace. O Notebook e sua saída são exibidos na tabárea Saída da nova do editor.

Para view informações sobre a execução do trabalho, clique no link Task run ID na do editor Databricks Job Run tab. Seu workspace é aberto e os detalhes da execução do Job são exibidos no workspace.