executar um R, Scala ou SQL Notebook como um Job usando a extensão Databricks para Visual Studio Code
Este artigo descreve como executar um R, Scala ou SQL Notebook como um Job do Databricks usando a extensão Databricks para Visual Studio Code. Consulte O que é a extensão Databricks para Visual Studio Code?.
Para executar um Notebook Python como um Job do Databricks, consulte execução de um Notebook Python como um Job usando a extensão Databricks para Visual Studio Code.
Esta informação pressupõe que você já instalou e configurou a extensão Databricks para Visual Studio Code. Consulte Instalar a extensão Databricks para Visual Studio Code.
Com a extensão e seu projeto de código abertos, faça o seguinte:
Observação
O procedimento a seguir usa a extensão Databricks para o Visual Studio Code, versão 1, que está disponível de forma geral. Para concluir este procedimento para a extensão Databricks para Visual Studio Code, versão 2, atualmente em Private Preview, avance para a execução de um R, Scala ou SQL Notebook como um Job usando a extensão Databricks para Visual Studio Code, versão 2.
Em seu projeto de código, abra o R, Scala ou SQL Notebook que você deseja executar como Job.
Dica
Para criar um arquivo R, Scala ou SQL Notebook no Visual Studio Code, comece clicando em File > New File, selecione Python File e salve o novo arquivo com uma extensão de arquivo
.r
,.scala
ou.sql
, respectivamente.Para transformar o arquivo
.r
,.scala
ou.sql
em um Databricks Notebook, adicione o comentário especialDatabricks notebook source
ao início do arquivo e adicione o comentário especialCOMMAND ----------
antes de cada célula. Certifique-se de usar o marcador de comentário correto para cada linguagem (#
para R,//
para Scala e--
para SQL). Para obter mais informações, consulte Importar um arquivo e convertê-lo em um Notebook.Isso é semelhante ao padrão do Python Notebook:
Na de execução e depuração view (view > execução ), selecion e execução no Databricks como fluxo de trabalho n a lista suspensa e clique no ícone de seta verde de reprodução ( começar a depuração ).
Observação
Se Executar em Databricks como fluxo de trabalho não estiver disponível, consulte Criar uma configuração de execução personalizada para a extensão Databricks para Visual Studio Code.
Uma nova tab do editor é exibida, intitulada Databricks Job execução. A execução do Notebook como Job no workspace. O Notebook e sua saída são exibidos na tabárea Saída da nova do editor.
Para view informações sobre a execução do trabalho, clique no link Task run ID na do editor Databricks Job Run tab. Seu workspace é aberto e os detalhes da execução do Job são exibidos no workspace.
executar um R, Scala ou SQL Notebook como um Job usando a extensão Databricks para Visual Studio Code, versão 2
Observação
A extensão Databricks para Visual Studio Code, versão 2, está em Private Preview.
Este procedimento pressupõe que o senhor já tenha instalado e configurado a extensão Databricks para o Visual Studio Code, versão 2. Consulte Instalar e abrir a extensão Databricks para o Visual Studio Code, versão 2.
Em seu projeto de código, abra o R, Scala ou SQL Notebook que você deseja executar como Job.
Dica
Para criar um arquivo R, Scala ou SQL Notebook no Visual Studio Code, comece clicando em File > New File, selecione Python File e salve o novo arquivo com uma extensão de arquivo
.r
,.scala
ou.sql
, respectivamente.Para transformar o arquivo
.r
,.scala
ou.sql
em um Databricks Notebook, adicione o comentário especialDatabricks notebook source
ao início do arquivo e adicione o comentário especialCOMMAND ----------
antes de cada célula. Certifique-se de usar o marcador de comentário correto para cada linguagem (#
para R,//
para Scala e--
para SQL). Para obter mais informações, consulte Importar um arquivo e convertê-lo em um Notebook.Isso é semelhante ao padrão do Python Notebook:
Na de execução e depuração view (view > execução ), selecion e execução no Databricks como fluxo de trabalho n a lista suspensa e clique no ícone de seta verde de reprodução ( começar a depuração ).
Observação
Se Executar em Databricks como fluxo de trabalho não estiver disponível, consulte Criar uma configuração de execução personalizada para a extensão Databricks para Visual Studio Code.
Uma nova tab do editor é exibida, intitulada Databricks Job execução. A execução do Notebook como Job no workspace. O Notebook e sua saída são exibidos na tabárea Saída da nova do editor.
Para view informações sobre a execução do trabalho, clique no link Task run ID na do editor Databricks Job Run tab. Seu workspace é aberto e os detalhes da execução do Job são exibidos no workspace.