FedRAMP Moderate
Esta página descreve FedRAMP Moderate compliance controles em Databricks.
Visão geral do FedRAMP Moderate
FedRAMP Moderate é um programa federal dos EUA que padroniza a avaliação de segurança, a autorização e o monitoramento contínuo de produtos e serviços em nuvem no nível de impacto moderado. Ele permite que os órgãos federais usem a tecnologia de nuvem, garantindo a proteção dos dados federais.
pontos-chave
- Aplica-se a serviços de nuvem que lidam com informações não classificadas controladas (CUI).
- Requer compliance com NIST 800-53 controles de linha de base moderados.
- Enfatiza o controle de acesso, a resposta a incidentes, o monitoramento contínuo e a criptografia.
- A Databricks é uma oferta de serviço em nuvem (CSO) autorizada pelo FedRAMP® no nível de impacto moderado nas regiões AWS US East-1, US-East-2, US-West-1, US West-2 (comercial).
- Os órgãos do governo dos EUA podem acessar o pacote Databricks on AWS FedRAMP® no OMB Max enviando um formulário de solicitação de acesso ao pacote e enviando-o para
package-access@fedramp.gov. - Informações adicionais sobre Databricks e FedRAMP® compliance estão localizadas no Databricks Security and Trust Center.
Habilitar FedRAMP Moderate compliance controles
Para configurar seu workspace para suportar o processamento de dados regulamentados pelo padrão FedRAMP Moderate, o workspace deve ter o perfil de segurança compliance ativado. Somente recursos de visualização específicos são suportados para o processamento de dados regulamentados. Para obter detalhes sobre o perfil de segurança compliance, recurso de visualização compatível e regiões compatíveis, consulte perfil de segurança de conformidade.
É de sua inteira responsabilidade garantir que informações confidenciais nunca sejam inseridas em campos de entrada definidos pelo cliente, como nomes workspace , nomes de recursos compute , tags, nomes de tarefas, nomes de execução de tarefas, nomes de redes, nomes de credenciais, nomes account de armazenamento e IDs ou URLs de repositórios Git . Esses campos podem ser armazenados, processados ou acessados fora do limite compliance .
Para ativar os controles FedRAMP Moderate compliance , consulte Configure enhanced security and compliance settings.
Em breve, será necessário um ambiente base compute sem servidor na versão 5 ou superior para cargas de trabalho FedRAMP Moderate na AWS. A Databricks recomenda a atualização para a versão 5 do ambiente base. Para selecionar um ambiente base para o Notebook, consulte Selecionar um ambiente base. Para configurar o ambiente para a tarefa Job, consulte Configurar o ambiente para a tarefa Job.
Apoio regional para recursos
Recurso |
|
|
|
|
|---|---|---|---|---|
Diagnóstico AI | ✓ | ✓ | ✓ | ✓ |
Agente Bricks - Assistente de Conhecimento | ||||
Agente Bricks - Agente Supervisor | ✓ | ✓ | ||
Agente Bricks - ai_parse_document | ✓ | ✓ | ||
Agent Bricks - ai_query (lotes inferência) | ✓ | ✓ | ✓ | ✓ |
Framework de Agentes: Autorização em Nome do Usuário | ✓ | ✓ | ✓ | ✓ |
Detecção de anomalia | ✓ | ✓ | ||
Controle de acesso baseado em atributos | ✓ | ✓ | ✓ | ✓ |
Computação clássica | ✓ | ✓ | ✓ | ✓ |
Clean Rooms | ✓ | ✓ | ||
Entrega de logs do cluster para volumes UC | ✓ | ✓ | ✓ | ✓ |
Visualização multiplataforma compartilhamento | ✓ | ✓ | ✓ | ✓ |
JDBC personalizado em computação UC | ✓ | ✓ | ✓ | ✓ |
Classificação de dados | ✓ | ✓ | ✓ | ✓ |
Sala de Dados (Govcloud) | ||||
ciência de dados Agente | ✓ | ✓ | ✓ | ✓ |
Databricks Apps | ✓ | ✓ | ✓ | ✓ |
Databricks Apps - Espaços de Aplicativos | ✓ | ✓ | ✓ | ✓ |
Databricks Apps - Configurar o tamanho do recurso de computação do aplicativo | ✓ | ✓ | ✓ | ✓ |
Databricks One | ✓ | ✓ | ✓ | ✓ |
Alerta Databricks SQL | ✓ | ✓ | ✓ | ✓ |
Databricks SQL alerta tarefa de trabalho | ✓ | ✓ | ✓ | ✓ |
repositórios de pacote Python padrão no pipeline declarativo Spark | ✓ | ✓ | ✓ | ✓ |
repo Python padrão em clusters (API) | ✓ | ✓ | ✓ | ✓ |
repo Python padrão em clusters (interface do usuário) | ✓ | ✓ | ✓ | ✓ |
Armazenamento padrão | ✓ | ✓ | ✓ | ✓ |
configuração padrão do armazém | ✓ | ✓ | ✓ | ✓ |
Ativar modelos estendidos (Qwen) | ✓ | ✓ | ✓ | ✓ |
UDFs Python aprimoradas no Unity Catalog | ✓ | ✓ | ✓ | ✓ |
Suporte do EventBridge para eventos de arquivo | ✓ | ✓ | ✓ | ✓ |
Suporte ao formato de arquivo Excel | ✓ | ✓ | ✓ | ✓ |
Acesso exclusivo | ✓ | ✓ | ✓ | ✓ |
notificações access token pessoal expirando | ✓ | ✓ | ✓ | ✓ |
Bloco de notas e editor de arquivos focados em pastas Git | ✓ | ✓ | ✓ | ✓ |
Genie Code | ✓ | ✓ | ✓ | ✓ |
Amostragem de dados Genie | ✓ | ✓ | ✓ | ✓ |
Research AgentGenie | ✓ | ✓ | ||
Espaços Genie | ✓ | ✓ | ✓ | ✓ |
Suporte da CLI do Git para pastas do Git | ✓ | ✓ | ✓ | ✓ |
Escala automática Lakebase | ||||
Provisão Lakebase | ||||
LakeFlow Connect para Confluence | ✓ | ✓ | ||
LakeFlow Connect para Dynamics 365 | ✓ | ✓ | ✓ | ✓ |
LakeFlow Connect para Google Ads | ✓ | ✓ | ||
LakeFlow Connect para Google Drive | ✓ | ✓ | ✓ | ✓ |
LakeFlow Connect para HubSpot | ✓ | ✓ | ||
LakeFlow Connect para Jira | ✓ | ✓ | ||
LakeFlow Connect para Meta Ads | ✓ | ✓ | ||
LakeFlow Connect para MySQL | ✓ | ✓ | ✓ | ✓ |
LakeFlow Connect para PostgreSQL | ✓ | ✓ | ✓ | ✓ |
LakeFlow Connect para SFTP | ||||
LakeFlow Connect para SharePoint | ✓ | ✓ | ✓ | ✓ |
LakeFlow Connect para anúncios do TikTok | ✓ | ✓ | ||
Suporte LakeFlow Connect para Zendesk | ✓ | ✓ | ||
Designer LakeFlow | ✓ | ✓ | ✓ | ✓ |
Jobs do Lakeflow | ✓ | ✓ | ✓ | ✓ |
Editor LakeFlow Pipelines | ✓ | ✓ | ||
Conectores LakeFlow baseados em consultas | ✓ | ✓ | ||
Monitoramento do lakehouse | ✓ | ✓ | ||
MLflow no Databricks | ✓ | ✓ | ✓ | ✓ |
gerenciar Servidores MCP | ✓ | ✓ | ✓ | ✓ |
gerenciando o registro de prompt MLflow | ✓ | ✓ | ✓ | ✓ |
servindo modelo - AI Gateway | ✓ | ✓ | ✓ | ✓ |
modelo confortável - AI Guardrail | ✓ | ✓ | ✓ | ✓ |
modelo interativo - AI Playground | ✓ | ✓ | ✓ | ✓ |
modelo privado - Modelo personalizado de CPU/GPU (ST) | ✓ | ✓ | ✓ | ✓ |
modelo privado - Modelos Externos | ✓ | ✓ | ✓ | ✓ |
modelo privado - Função AI de modelos básicos | ✓ | ✓ | ✓ | ✓ |
modelo privado - Modelos de base Pay-Per-tokens | ✓ | ✓ | ✓ | ✓ |
Atualização do modelo Acionadores de tarefas | ✓ | ✓ | ✓ | ✓ |
Modelos no Unity Catalog: Tarefas de Implantação | ✓ | ✓ | ✓ | ✓ |
Várias credenciais Git | ✓ | ✓ | ✓ | ✓ |
Registros de aceitação de rede | ✓ | ✓ | ||
Novo formulário de política compute | ✓ | ✓ | ✓ | ✓ |
Link privado de saída (serverless) GCP | ||||
tipo de tarefa do Power BI | ✓ | ✓ | ✓ | ✓ |
Otimização preditiva | ✓ | ✓ | ||
Monitoramento de produção para MLflow | ✓ | ✓ | ||
função de tabela de consulta remota | ✓ | ✓ | ✓ | ✓ |
Exploração de dados de amostra com assistente | ✓ | ✓ | ✓ | ✓ |
UDFs Scala e Java no Unity Catalog | ✓ | ✓ | ✓ | ✓ |
access tokenspessoal com escopo definido | ✓ | ✓ | ✓ | ✓ |
SDK Python de previsão sem servidor | ✓ | ✓ | ✓ | ✓ |
JARs sem servidor | ✓ | ✓ | ||
Jobs sem servidor/fluxo de trabalho/Notebook | ✓ | ✓ | ||
LakeFlow Pipelinessem servidor | ✓ | ✓ | ||
Gitprivado sem servidor | ✓ | ✓ | ||
Serverless SQL warehouses | ✓ | ✓ | ||
espaço de trabalho sem servidor | ✓ | ✓ | ||
compartilhamento Para Clientes Iceberg | ✓ | ✓ | ✓ | ✓ |
Transações | ✓ | ✓ | ✓ | ✓ |
U2M para entidade de serviço | ✓ | ✓ | ✓ | ✓ |
Lista unificada de execuções | ✓ | ✓ | ✓ | ✓ |
Recuperação de desastres Unity Catalog | ||||
Segredos Unity Catalog | ✓ | ✓ | ✓ | ✓ |
Busca vetorial (padrão) | ✓ | ✓ | ||
Busca vetorial (otimizada para armazenamento) | ||||
Reclassificador de Busca Vetorial | ||||
ambientes de base de espaço de trabalho | ✓ | ✓ |
:::