Criar um workspace
Este artigo é uma visão geral das suas opções para criar e gerenciar workspaces.
O que é um workspace?
Um workspace é uma implementação do Databricks em uma conta de serviço de nuvem. Ele fornece um ambiente unificado para trabalhar com ativos da Databricks para um conjunto específico de usuários.
Existem dois tipos de área de trabalho do Databricks disponíveis:
- Área de trabalho sem servidor (versão pré- workspace ): uma implantação no seu Databricks account que vem pré-configurada com serverless compute e default storage para fornecer uma experiência serverless completa. Ainda pode se conectar ao seu armazenamento em nuvem.
- Espaço de trabalho clássico : Uma implantação workspace em sua account Databricks que provisiona recursos de armazenamento e compute em sua account cloud existente. compute sem servidor ainda está disponível no espaço de trabalho clássico.
Escolhendo um tipo de workspace
As seções a seguir descrevem qual tipo workspace é o mais adequado para casos de uso comuns. Use essas recomendações para ajudá-lo a decidir se você deve implantar um workspace serverless ou um espaço de trabalho clássico.
Quando escolher um espaço de trabalh serverless
O espaço de trabalho sem servidor é a melhor opção para os seguintes casos de uso:
- Permita que usuários empresariais acessem o Databricks One
- Criar painéis d AI/BI
- Criar aplicativos Databricks
- Realizar análises exploratórias utilizando o Notebook ou um armazenamento d SQL.
- Conecte-se a provedores SaaS por meio da Federação Lakehouse (exceto LakeFlow Connect).
- Utilize o Genie Spaces para casos de uso comercial.
- Teste novos recursos do Mosaic AI antes de transferi-los para produção.
- Criar um pipeline declarativo Spark LakeFlow serverless
Quando escolher um espaço de trabalho clássico
Os espaços de trabalho clássicos são a melhor opção para os seguintes casos de uso:
- Realizar trabalhos de desenvolvimento em AI ou ML que exijam GPUs.
- Utilize o Databricks Runtime para Machine Learning ou Apache Spark MLib
- Portar o código Spark legado existente que utiliza Spark RDDs
- Utilize Scala ou R como sua linguagem de programação principal.
- transmissão de dados que requer intervalos de disparo baseados em tempo ou em um evento específico ( default )
- Conecte-se às APIs do Databricks por meio de uma conexão PrivateLink.
- Conecte-se diretamente a sistemas locais ou bancos de dados privados, por meio de LakeFlow Connect
opções de criação de espaço de trabalho
É possível implantar o espaço de trabalho a partir do console Databricks account , da conta API ou Terraform. Utilize as páginas a seguir para auxiliá-lo na implementação do espaço de trabalho: