computar
Databricks compute refere-se à seleção de recursos de computação disponíveis em Databricks para executar suas cargas de trabalho de engenharia de dados, ciência de dados e analítica. Escolha entre serverless compute para escalonamento sob demanda, compute clássico para recurso personalizável ou SQL warehouse para análise otimizada.
O senhor pode view e gerenciar compute recurso na seção de computação do seu workspace:
sem servidor compute
Sob demanda, gerencie automaticamente compute essa escala com base nos requisitos de sua carga de trabalho.
-
- Compute serverless para notebooks
- Execução interativa de Python e SQL no Notebook com dimensionamento automático e sem gerenciamento de infraestrutura.
-
- sem servidor compute para o trabalho
- execução de LakeFlow Jobs sem configurar ou implantar infraestrutura. Provisionamento e escalonamento de recurso compute automaticamente.
-
- pipeline sem servidor
- execução do pipeline declarativo LakeFlow Spark sem configurar ou implantar infraestrutura. Provisionamento e escalonamento de recurso compute automaticamente.
-
- sem servidor compute limitações
- Compreender as limitações e os requisitos das cargas de trabalho do serverless e as configurações compatíveis.
Clássico compute
provisionamento compute recurso que o senhor cria, configura e gerencia para suas cargas de trabalho.
-
- Classic compute overview
- Visão geral de quem pode acessar e criar o recurso clássico compute.
-
- Configurar compute
- Crie e configure o compute para análise interativa de dados no Notebook ou fluxo de trabalho automatizado com o LakeFlow Jobs.
-
- Padrão compute
- compute multiusuário com recurso compartilhado para colaboração econômica. O Lakeguard fornece isolamento seguro do usuário.
-
- Dedicado compute
- computar o recurso atribuído a um único usuário ou grupo.
-
- instânciaPools
- Instâncias pré-configuradas que reduzem o tempo de compute startup e proporcionam economia de custos para cargas de trabalho frequentes.
SQL depósito
Otimizado compute recurso para casos de uso específicos e funcionalidade avançada. SQL O armazém pode ser configurado como serverless ou clássico.
-
- SQL warehouses
- Otimizado compute para SQL consultas, análises e cargas de trabalho de Business Intelligence com serverless ou opções clássicas .
-
- Tipos de SQL warehouse
- Compreender as diferenças entre as opções serverless e SQL warehouse clássicas para escolher o tipo certo para suas cargas de trabalho.
Tópicos adicionais
-
- O que é Photon?
- Mecanismo de consulta de alto desempenho que acelera as cargas de trabalho SQL e oferece processamento de dados mais rápido.
-
- O que é Lakeguard?
- Estrutura de segurança que fornece governança de dados e controle de acesso para compute recurso.
Para obter informações sobre como trabalhar com compute usando a linha de comando ou APIs, consulte O que é o Databricks CLI? e a referênciaDatabricks REST API.
Portos reservados
Certas portas são reservadas no nó do driver para o serviço interno Databricks . Para evitar conflitos, não vincule serviço às seguintes portas:
- 1023
- 6059
- 6060
- 6061
- 6062: Ocupado por ipywidgets por default. Você pode alterar a porta, se necessário. Veja ipywidgets.
- 7071
- 7077
- 10000
- 15001
- 15002
- 36423
- 38841
- 39909
- 40000
- 40001
- 41063