Pular para o conteúdo principal

Use o site JAR em LakeFlow Jobs

O formato de arquivo Java Archive, ou JAR, é baseado no popular formato de arquivo ZIP e é usado para agrupar vários arquivos Java ou Scala em um único arquivo. Ao utilizar a tarefa JAR , você pode garantir a instalação rápida e confiável de código Java ou Scala em seus Jobs LakeFlow . Esta página descreve como criar um Job que executa um pacote de aplicação Scala contido em um JAR.

Requisitos

  • Um JAR Scala compatível com o Databricks Runtime para seu cluster compute . Para criar um JAR Scala compatível que imprima uma lista dos parâmetros do Job passados para o JAR, consulte Criar um JAR.

o passo 1. faça o upload do seu JAR

Faça o upload do arquivo JAR que você criou para um volume em seu espaço de trabalho. Consulte a seção sobre como carregar arquivos para um volume Unity Catalog.

Se você estiver usando compute com acesso padrão, será necessário que um administrador adicione as coordenadas e os caminhos Maven para a biblioteca JAR a uma lista de permissões. Consulte a biblioteca Allowlist e o script de inicialização no compute com acesso padrão (anteriormente modo de acesso compartilhado).

o passo 2. Crie um Job para executar o JAR

  1. Em seu site workspace, clique em ícone de fluxo de trabalho. Jobs & pipeline na barra lateral.

  2. Clique em Create e depois em Job .

    A tarefa tab é exibida com o painel de tarefa vazio.

nota

Se a interface de usuárioLakeFlow Jobs estiver ativada , clique no JAR para configurar a primeira tarefa. Se o bloco JAR não estiver disponível, clique em Add another task type (Adicionar outro tipo de tarefa ) e procure por JAR .

  1. Opcionalmente, substitua o nome do trabalho, cujo padrão é New Job <date-time> pelo seu nome de trabalho.

  2. Em nome da tarefa , digite um nome para a tarefa, por exemplo, JAR_example.

  3. Se necessário, selecione JAR no menu suspenso Type (Tipo ).

  4. Para a classe principal , insira o pacote e a classe do seu arquivo JAR. Se você seguiu o exemplo de Criar um JAR compatível com Databricks, insira com.example.SparkJar.

  5. Para computação , selecione um cluster compatível.

  6. Para biblioteca dependente , clique Ícone de mais (+). Adicionar .

  7. Na caixa de diálogo Adicionar biblioteca dependente , com a opção Volumes selecionada, insira o local onde você carregou o JAR na etapa anterior em Caminho do arquivo de volumes ou filtre ou navegue para encontrar o JAR. Selecione-o.

  8. Clique em Adicionar .

  9. Em Parâmetros , neste exemplo, digite ["Hello", "World!"].

  10. Clique em Criar tarefa .

o passo 3: execute o Job e view os detalhes de execução do Job

Clique em Botão executar agora para executar o fluxo de trabalho. Para acessar view detalhes da execução, clique em view execution (visualizar execução ) na janela pop-up Triggered execution (execução acionada ) ou clique no link na coluna começar time (tempo ) para a execução no Job execution (execução de trabalho) view.

Quando a execução for concluída, a saída será exibida no painel Output (Saída ), incluindo os argumentos passados para a tarefa.

Próximas etapas