Use o site JAR em LakeFlow Jobs
O formato de arquivo Java Archive, ou JAR, é baseado no popular formato de arquivo ZIP e é usado para agrupar vários arquivos Java ou Scala em um único arquivo. Ao utilizar a tarefa JAR , você pode garantir a instalação rápida e confiável de código Java ou Scala em seus Jobs LakeFlow . Esta página descreve como criar um Job que executa um pacote de aplicação Scala contido em um JAR.
Requisitos
- Um JAR Scala compatível com o Databricks Runtime para seu cluster compute . Para criar um JAR Scala compatível que imprima uma lista dos parâmetros do Job passados para o JAR, consulte Criar um JAR.
 
o passo 1. faça o upload do seu JAR
Faça o upload do arquivo JAR que você criou para um volume em seu espaço de trabalho. Consulte a seção sobre como carregar arquivos para um volume Unity Catalog.
Se você estiver usando compute com acesso padrão, será necessário que um administrador adicione as coordenadas e os caminhos Maven para a biblioteca JAR a uma lista de permissões. Consulte a biblioteca Allowlist e o script de inicialização no compute com acesso padrão (anteriormente modo de acesso compartilhado).
o passo 2. Crie um Job para executar o JAR
- 
Em seu site workspace, clique em
Jobs & pipeline na barra lateral.
 - 
Clique em Create e depois em Job .
A tarefa tab é exibida com o painel de tarefa vazio.
 
Se a interface de usuárioLakeFlow Jobs estiver ativada , clique no JAR para configurar a primeira tarefa. Se o bloco JAR não estiver disponível, clique em Add another task type (Adicionar outro tipo de tarefa ) e procure por JAR .
- 
Opcionalmente, substitua o nome do trabalho, cujo padrão é
New Job <date-time>pelo seu nome de trabalho. - 
Em nome da tarefa , digite um nome para a tarefa, por exemplo,
JAR_example. - 
Se necessário, selecione JAR no menu suspenso Type (Tipo ).
 - 
Para a classe principal , insira o pacote e a classe do seu arquivo JAR. Se você seguiu o exemplo de Criar um JAR compatível com Databricks, insira
com.example.SparkJar. - 
Para computação , selecione um cluster compatível.
 - 
Para biblioteca dependente , clique
Adicionar .
 - 
Na caixa de diálogo Adicionar biblioteca dependente , com a opção Volumes selecionada, insira o local onde você carregou o JAR na etapa anterior em Caminho do arquivo de volumes ou filtre ou navegue para encontrar o JAR. Selecione-o.
 - 
Clique em Adicionar .
 - 
Em Parâmetros , neste exemplo, digite
["Hello", "World!"]. - 
Clique em Criar tarefa .
 
o passo 3: execute o Job e view os detalhes de execução do Job
Clique em  para executar o fluxo de trabalho. Para acessar view detalhes da execução, clique em view execution (visualizar execução ) na janela pop-up Triggered execution (execução acionada ) ou clique no link na coluna começar time (tempo ) para a execução no Job execution (execução de trabalho) view.
Quando a execução for concluída, a saída será exibida no painel Output (Saída ), incluindo os argumentos passados para a tarefa.
Próximas etapas
- Para saber mais sobre tarefas JAR , consulte TarefasJAR para Job.
 - Para saber mais sobre como criar um JAR compatível, consulte Criar um JAR compatível com o Databricks.
 - Para saber mais sobre como criar e executar o Job, consulte LakeFlow Jobs.