Configurar compute para o trabalho
Este artigo contém recomendações e recursos para configurar o site compute para Databricks Jobs.
As limitações do site serverless compute for Job incluem o seguinte:
- Não há suporte para programação contínua .
- Não há suporte para default ou acionadores de intervalo baseados em tempo na transmissão estruturada.
Para obter mais limitações, consulte limitações do compute sem servidor.
Cada trabalho pode ter uma ou mais tarefas. O senhor define compute recurso para cada tarefa. Várias tarefas definidas para o mesmo trabalho podem usar o mesmo recurso compute.
Qual é a recomendação do site compute para cada tarefa?
A tabela a seguir indica os tipos de compute recomendados e suportados para cada tipo de tarefa.
sem servidor compute for Job tem limitações e não é compatível com todas as cargas de trabalho. Consulte as limitações do compute sem servidor.
Tarefa | Recomendado compute | Com suporte compute |
---|---|---|
cadernos | Trabalho sem servidor | Job sem servidor, Job clássico, clássico para todos os fins |
Script Python | Trabalho sem servidor | Job sem servidor, Job clássico, clássico para todos os fins |
Python Wheel | Trabalho sem servidor | Job sem servidor, Job clássico, clássico para todos os fins |
SQL | sem servidor SQL warehouse | sem servidor SQL warehouse, pro SQL warehouse |
DLT pipeline | sem servidor pipeline | sem servidor pipeline, clássico pipeline |
dbt | sem servidor SQL warehouse | sem servidor SQL warehouse, pro SQL warehouse |
dbt CLI comando | Trabalho sem servidor | Job sem servidor, Job clássico, clássico para todos os fins |
JAR | Trabalho clássico | Trabalho clássico, clássico para todos os fins |
Spark Submit | Trabalho clássico | Trabalho clássico |
preços for Jobs está vinculado ao site compute usado para executar a tarefa. Para obter mais detalhes, consulte Databricks preços.
Como configurar o site compute for Jobs?
O trabalho clássico compute é configurado diretamente na interface do usuário do Databricks Jobs, e essas configurações fazem parte da definição do trabalho. Todos os outros tipos de compute disponíveis armazenam suas configurações com outros workspace ativos. A tabela a seguir tem mais detalhes:
Tipo de Compute | Detalhes |
---|---|
Trabalho clássico compute | O senhor configura o compute para o trabalho clássico usando a mesma interface do usuário e as mesmas configurações disponíveis para o compute para todos os fins. Consulte a referência de configuração de computação. |
sem servidor compute para o trabalho | serverless compute for Job é o default para todas as tarefas que o suportam. Databricks gerenciar compute configurações para serverless compute. Veja a execução de seu Databricks Job com serverless compute para fluxo de trabalho. nn Um administrador do workspace deve habilitar o serverless compute para que essa opção fique visível. Consulte Ativar serverless compute . |
SQL warehouses | serverless e pro SQL warehouse são configurados pelos administradores do workspace ou por usuários com privilégios irrestritos de criação de clustering. O senhor configura a tarefa para execução no site SQL warehouse existente. Consulte Conectar-se a um site SQL warehouse. |
DLT pipeline compute | O senhor define as configurações do compute para o pipeline DLT durante a configuração do pipeline. Consulte Configurar compute para um DLT pipeline. nn Databricks gerenciar compute recurso para serverless pipeline DLT. Consulte Configurar um serverless DLT pipeline. |
Compute para todos os fins | Opcionalmente, o senhor pode configurar a tarefa usando o clássico compute. Databricks não recomenda essa configuração para trabalhos de produção. Consulte a referência de configuração de computação e O site compute para todos os fins deve ser usado para trabalhos? |
Compartilhe compute em toda a tarefa
Configure a tarefa para usar o mesmo recurso do Job compute para otimizar o uso do recurso com o Job que orquestra várias tarefas. O compartilhamento compute entre as tarefas pode reduzir a latência associada aos tempos start-up.
O senhor pode usar um único recurso de Job compute para executar todas as tarefas que fazem parte do Job ou vários recursos de Job otimizados para cargas de trabalho específicas. Qualquer tarefa compute configurada como parte de uma tarefa está disponível para todas as outras tarefas da tarefa.
A tabela a seguir destaca as diferenças entre o Job compute configurado para uma única tarefa e o Job compute compartilhado entre tarefas:
Tarefa única | Compartilhado em toda a tarefa | |
---|---|---|
Iniciar | Quando a execução da tarefa começa. | Quando a primeira execução de tarefa configurada para usar o recurso compute começar. |
Encerrar | Após a execução da tarefa. | Após a tarefa final configurada para usar o recurso compute execução. |
parado compute | Não aplicável. | O cálculo permanece ligado e parado enquanto a tarefa não usa o recurso de execução compute. |
Um clustering de trabalho compartilhado tem o escopo de uma única execução de trabalho e não pode ser usado por outro trabalho ou execução do mesmo trabalho.
biblioteca não pode ser declarado em uma configuração de clustering de trabalho compartilhado. O senhor deve adicionar a biblioteca dependente nas configurações da tarefa.
Revisar, configurar e swap Job compute
A seção de computação no painel de detalhesJob lista todos os compute configurados para tarefa no trabalho atual.
A tarefa configurada para usar um compute recurso é destacada no gráfico da tarefa quando o senhor passa o mouse sobre a especificação compute.
Use o botão de troca para alterar o endereço compute para todas as tarefas associadas a um recurso compute.
O trabalho clássico compute recurso tem uma opção Configure (Configurar ). Outros compute recursos oferecem ao senhor opções para view e modificar compute detalhes de configuração.
Mais informações
Para obter mais detalhes sobre a configuração do trabalho clássico do Databricks, consulte Práticas recomendadas para configurar o trabalho clássico do Databricks.