Confiança e segurança do DatabricksIQ
A Databricks entende a importância dos seus dados e a confiança que o senhor deposita em nós quando usa o serviço da Databricks. A Databricks está comprometida com os mais altos padrões de proteção de dados e implementou medidas rigorosas para garantir a proteção de suas informações.
Seus dados não são usados para treinamento e nossos parceiros de modelo não retêm seus dados.
Nem a Databricks nem nossos parceiros de modelo (Azure OpenAI) ensinam modelos usando dados do cliente. Seu código e suas informações não são usados para gerar sugestões exibidas para outros clientes.
Os dados enviados pela Databricks nesses recursos não são retidos pelo Azure OpenAI, nem mesmo para monitoramento de abuso. Esses recursos foram excluídos da retenção de dados do Azure para essa finalidade.
Proteção contra saída prejudicial. A Databricks também usa a filtragem de conteúdo do Azure OpenAI para proteger os usuários de conteúdo nocivo. Além disso, a Databricks realizou uma extensa avaliação com milhares de interações simuladas de usuários para garantir que as proteções implementadas para proteger contra conteúdo nocivo, jailbreaks, geração de código inseguro e uso de conteúdo de direitos autorais de terceiros sejam eficazes.
A Databricks usa apenas os dados necessários para fornecer o serviço. Os dados são enviados somente quando o senhor interage com o recurso assistido por IA. O Databricks envia sua entrada de linguagem natural, metadados de tabela relevantes, erros, bem como código de entrada ou consultas para ajudar a retornar resultados mais relevantes para seus dados. O Databricks não envia dados em nível de linha.
Os dados são protegidos em trânsito. Todo o tráfego entre o Databricks e o Azure OpenAI é criptografado em trânsito com a criptografia TLS padrão da indústria.
Os dados da UE permanecem na UE. Para o espaço de trabalho da União Europeia (UE), o AI-assistive recurso usa um modelo Azure OpenAI hospedado na UE. Databricks GeosConsulte: Data residency Databricks (Residência de dados ) e Designated service (Serviço designado).
recurso governado pela configuração do recurso assistivo AI alimentado por parceiros
parceiros-powered AI refere-se ao serviço Azure OpenAI. A seguir, apresentamos um detalhamento do recurso regido pela configuração do recurso assistivo AI, alimentado por parceiros:
Recurso |
Onde o modelo está hospedado? |
Controlado por parceiros - AI configuração? |
---|---|---|
Chat do Databricks Assistant |
Azure Serviço OpenAI |
Sim |
Solução rápida |
Azure Serviço OpenAI |
Sim |
AI-comentários gerados pela UC (espaço de trabalho do perfil de segurança de conformidade (CSP)) |
Azure Serviço OpenAI |
Sim, para todo o espaço de trabalho do CSP |
AI-comentários gerados pela UC (espaço de trabalho não-CSP) |
Modelo hospedado no Databricks |
Não, para espaços de trabalho não-CSP |
AI/BI dashboard AI-visualizações assistidas e acompanhantes Genie spaces |
Azure Serviço OpenAI |
Sim |
Genie |
Azure Serviço OpenAI |
Sim |
Autocompletar do Databricks Assistant |
Modelo hospedado no Databricks |
Não |
Pesquisa inteligente |
Azure Serviço OpenAI |
Sim |
Usar um modelo hospedado no Databricks para o Databricks Assistant
Prévia
Esse recurso está em Prévia Pública.
Saiba como usar um modelo hospedado no Databricks para alimentar o Databricks Assistant. Esta seção explica como ele funciona e como usá-lo.
Para desativar esse recurso, clique em seu perfil no canto superior direito e, em seguida, escolha Preview no menu.
Como funciona
O diagrama a seguir fornece uma visão geral de como um modelo hospedado no Databricks alimenta o Databricks Assistant.
Um usuário solicita ao Databricks Assistant digitando um código ou uma pergunta, selecionando Diagnose Error ou destacando uma célula.
A Databricks anexa metadados a uma solicitação e a envia para um modelo de linguagem grande (LLM) hospedado pela Databricks. Todos os dados são criptografados em repouso. Os clientes podem usar um gerenciador de clientes key (CMK).
A solicitação do usuário é enviada para o modelo hospedado na Databricks.
Os modelos hospedados na Databricks usam o Meta Llama 3.x
O Databricks Assistant Databrickssite com modelos hospedados em foi criado atualmente com o Meta Llama 3. OMeta Llama 3 está licenciado sob a licença da comunidade Meta Llama 3, Copyright © Meta Platforms, Inc. Todos os direitos reservados.
Perguntas frequentes sobre modelos hospedados na Databricks para o Assistant
Posso ter minha própria instância privada da servindo modelo?
Não neste momento. Esta visualização usa endpoints do modelo servindo que são gerenciados e protegidos por Databricks. Os endpoints da Servindo Modelo são stateless, protegidos por várias camadas de isolamento e implementam os seguintes controles de segurança para proteger seus dados:
Cada solicitação de cliente à Servindo Modelo é logicamente isolada, autenticada e autorizada.
O Mosaic AI Model Serving criptografa todos os dados em repouso (AES-256) e em trânsito (TLS 1.2+).
Os metadados enviados para os modelos respeitam as permissões do usuário no Unity Catalog?
Sim, todos os dados enviados ao modelo respeitam as permissões do Unity Catalog do usuário. Por exemplo, ele não envia metadados relacionados a tabelas que o usuário não tem permissão para ver.
Onde os dados são armazenados?
O histórico do chat Databricks Assistant é armazenado no banco de dados do plano de controle, juntamente com o Notebook. O banco de dados do plano de controle é criptografado em AES-256 bits e os clientes que precisam de controle sobre a criptografia key podem utilizar nosso recurso de chave gerenciada pelo cliente.
Observação
Assim como outros objetos do site workspace, o período de retenção do Databricks Assistant chat história tem como escopo o ciclo de vida do próprio objeto. Se um usuário excluir o Notebook, ele e qualquer histórico de bate-papo associado serão excluídos em 30 dias.
Se o Notebook for compartilhado com outro usuário, o histórico de bate-papo também ficará visível para esse usuário, a menos que seja apagado primeiro.
Se o Notebook for exportado, o histórico de bate-papo não será exportado com ele.
Se um administrador tiver acesso ao Notebook, ele poderá abri-lo e ver o histórico do chat.
Posso trazer minha própria chave de API para meu modelo ou hospedar meus próprios modelos?
Não neste momento. O Databricks Assistant é totalmente gerenciado e hospedado pela Databricks. A funcionalidade do assistente depende muito do servindo modelo recurso (por exemplo, chamada de função), do desempenho e da qualidade. A Databricks avalia continuamente novos modelos para obter o melhor desempenho e pode atualizar o modelo em versões futuras desse recurso.