descobrimento de dados e colaboração na lakehouse
Databricks permite a colaboração segura e controlada em análises de dados e cargas de trabalho AI no data lake. Ao utilizar o Unity Catalog e protocolos abertos como o Delta Sharing, as equipes podem descobrir, compartilhar e analisar dados em escala, mantendo a governança, a auditabilidade e a privacidade em todos os casos de uso e colaboradores.
gerenciar permissões em escala
O Unity Catalog fornece aos administradores um local unificado para atribuir permissões para catálogos, bancos de dados, tabelas e exibições a grupos de usuários. Os privilégios e metadados são compartilhados entre workspaces, permitindo que os administradores definam permissões seguras uma vez para grupos sincronizados de provedores de identidade e saibam que os usuários finais têm acesso apenas aos dados apropriados em qualquer workspace do Databricks que eles acessem.
Unity Catalog também permite que os administradores definam credenciais de armazenamento, um método seguro para armazenar e compartilhar permissões na infraestrutura de armazenamento cloud . Você pode conceder privilégios nesses itens protegíveis para permitir que os usuários da organização definam locais externos em relação aos locais de armazenamento de objetos cloud , permitindo que o engenheiro de dados se autoatenda a novas cargas de trabalho sem precisar fornecer permissões elevadas nos consoles account cloud .
Descubra os dados na Databricks
Os usuários podem navegar pelos objetos de dados disponíveis no Unity Catalog usando o Catalog Explorer. O Catalog Explorer usa os privilégios configurados pelos administradores do Unity Catalog para garantir que os usuários só consigam ver catálogos, bancos de dados, tabelas e visualizações que tenham permissão para consultar. Quando os usuários encontrarem um dataset de interesse, poderão revisar os nomes e tipos de campos, ler comentários sobre tabelas e campos individuais e visualizar uma amostra dos dados. Os usuários também podem revisar o histórico completo da tabela para entender quando e como os dados foram alterados, e o recurso de linhagem permite que os usuários rastreiem como determinados conjuntos de dados são derivados do trabalho upstream e usados no trabalho downstream.
As credenciais de armazenamento e os locais externos também são exibidos no Explorador de Catálogo, permitindo que cada usuário veja os privilégios necessários para ler e gravar dados nos locais e recursos disponíveis.
Acelere o tempo de produção com o lakehouse
Databricks oferece suporte a cargas de trabalho em SQL, Python, Scala e R, permitindo que usuários com diversas habilidades e formações técnicas utilizem seus conhecimentos para obter percepções analíticas. Você pode usar todos os idiomas suportados pelo Databricks para definir um Job de produção, e o Notebook pode usar uma combinação de idiomas. Isso significa que você pode promover consultas escritas por analistas SQL para a etapa final ETL Extração, Carga e Transformação) em código de engenharia de dados de produção com praticamente nenhum esforço. Consultas e cargas de trabalho definidas por perfis em toda a organização usam o mesmo conjunto de dados, portanto, não há necessidade de conciliar nomes de campos ou garantir que os painéis estejam atualizados antes de compartilhar código e resultados com outras equipes. Você pode compartilhar com segurança código, Notebooks, consultas e painéis, tudo isso com a mesma infraestrutura cloud escalável e definido com base na mesma fonte de dados selecionada.