Pular para o conteúdo principal

execução de consultas federadas no Salesforce Data Cloud

Este artigo descreve como configurar o Lakehouse Federation para executar consultas federadas nos dados do Salesforce Data Cloud que não são gerenciados por Databricks. Para saber mais sobre a lakehouse Federation, consulte O que é a lakehouse Federation?

Para se conectar ao banco de dados do Salesforce Data Cloud usando o Lakehouse Federation, o senhor deve criar o seguinte no metastore Databricks Unity Catalog :

  • Uma conexão com seu banco de dados do Salesforce Data Cloud.
  • Um catálogo externo que espelha o banco de dados do Salesforce Data Cloud no Unity Catalog para que o senhor possa usar a sintaxe de consulta do Unity Catalog e as ferramentas de governança de dados para gerenciar o acesso do usuário do Databricks ao banco de dados.

Qual conector Salesforce devo usar?

A Databricks oferece vários conectores para o Salesforce. Há dois conectores de cópia zero: o conector de compartilhamento de arquivos do Salesforce Data Cloud e o conector de federação de consultas do Salesforce Data Cloud. Isso permite que você consulte dados no Salesforce Data Cloud sem movê-los. Há também um conector de ingestão do Salesforce que copia dados de vários produtos do Salesforce, incluindo o Salesforce Data Cloud e o Salesforce Ventas Cloud.

A tabela a seguir resume as diferenças entre os conectores do Salesforce na Databricks:

Conector

Caso de uso

Produto Salesforce suportado

Compartilhamento de arquivos do Salesforce Data Cloud

Quando o senhor usa o conector de compartilhamento de arquivos do Salesforce Data Cloud no Lakehouse Federation, o site Databricks chama o Salesforce Data-as-a-serviço (DaaS) APIs para ler diretamente os dados no local de armazenamento de objetos na nuvem subjacente. As consultas são executadas em Databricks compute sem usar o protocolo JDBC.

Comparado à federação de consultas, o compartilhamento de arquivos é ideal para federar uma grande quantidade de dados. Ele oferece melhor desempenho para a leitura de arquivos de várias fontes de dados e melhores recursos de pushdown. Consulte Lakehouse Federation for Salesforce Data Cloud File compartilhamento.

Nuvem de dados do Salesforce

Federação de consultas do Salesforce Data Cloud

Quando o senhor usa o conector de federação de consultas do Salesforce Data Cloud no Lakehouse Federation, o site Databricks usa o JDBC para se conectar aos dados de origem e envia as consultas para o Salesforce. Consulte execução de consultas federadas no Salesforce Data Cloud.

Nuvem de dados do Salesforce

Ingestão do Salesforce

O conector de ingestão do Salesforce em LakeFlow Connect permite que o senhor crie um pipeline de ingestão totalmente gerenciado a partir dos dados da Salesforce Platform, incluindo dados no Salesforce Data Cloud e no Salesforce Ventas Cloud. Esse conector maximiza o valor aproveitando não apenas os dados do CDP, mas também os dados do CRM na Plataforma de Inteligência de Dados. Consulte Ingerir dados do Salesforce.

Salesforce Data Cloud, Salesforce ventas Cloud e muito mais. Para obter uma lista abrangente dos produtos Salesforce compatíveis, consulte Qual produto Salesforce é compatível com o conector de ingestão do Salesforce?

Antes de começar

Requisitos do workspace:

  • Espaço de trabalho preparado para o Catálogo do Unity.

Requisitos de computação:

  • Conectividade de rede do seu recurso compute para os sistemas de banco de dados de destino. Veja as recomendações do Networking para a Lakehouse Federation.
  • Databricks compute deve usar o site Databricks Runtime 15.2 ou acima e o modo de acesso Standard ou Dedicated .
  • SQL O armazém deve ser pro ou serverless e deve usar 2024.30 ou acima.

Permissões necessárias:

  • Para criar uma conexão, é preciso ser administrador de metastore ou usuário com o privilégio CREATE CONNECTION no metastore do Unity Catalog anexado ao espaço de trabalho.
  • Para criar um catálogo externo é preciso ter a permissão CREATE CATALOG no metastore e ser proprietário da conexão ou ter o privilégio CREATE FOREIGN CATALOG na conexão.

Outros requisitos de permissão são definidos em cada seção baseada em tarefa a seguir.

Crie um aplicativo conectado ao Salesforce

Os aplicativos conectados ao Salesforce permitem que um aplicativo externo se integre ao Salesforce usando APIs e protocolos padrão. Esta seção descreve como criar um aplicativo conectado usando SSO para permitir que o Databricks se autentique no Salesforce.

nota

Para obter instruções mais detalhadas, consulte Criar um aplicativo conectado na documentação do Salesforce Data Cloud.

Para criar um aplicativo conectado ao Salesforce, faça o seguinte:

  1. No canto superior direito do Data Cloud, clique em Configurar.

  2. Em Ferramentas da plataforma , clique em Apps > App Manager .

  3. Clique em Novo aplicativo conectado .

  4. Digite um nome e um endereço de contato email.

  5. Ativar as configurações do OAuth :

    1. Insira o URL de retorno de chamada, no seguinte formato: https://<databricks_instance_url>/login/oauth/salesforce.html. Por exemplo: https://cust-success.cloud.databricks.com/login/oauth/salesforce.html.

    2. (Opcional) Se o senhor planeja usar o SQL para criar a conexão Databricks e o catálogo externo na próxima etapa, seu Salesforce Connected App também precisa suportar o URI de redirecionamento https://login.salesforce.com/services/oauth2/success. Isso não é necessário se o senhor planeja usar o Catalog Explorer para criar a conexão Databricks e o catálogo externo. A Databricks recomenda o uso do Catalog Explorer porque ele exige menos etapas manuais do que outros métodos.

    3. Adicione os seguintes escopos :

      • Acessar todos os dados da nuvem API recurso (cdp_api )
      • Gerenciar dados do usuário via APIs (api )
      • Realizar consultas ANSI SQL nos dados do Data Cloud (cdp_query_api )
      • Realizar solicitações a qualquer momento (refresh, offline_access )
    4. Clique em Salvar .

    5. Clique em "Continuar" .

  6. Na página de visão geral do Connected App , clique em gerenciar Consumer Details . Você será solicitado a se autenticar.

  7. Após a autenticação bem-sucedida, o consumidor key e o segredo do consumidor são revelados. Salve esses valores. O senhor precisará deles quando criar uma conexão com o Databricks.

Criar uma conexão com o Databricks

A conexão especifica um caminho e as credenciais para acessar um sistema de banco de dados externo. Para criar uma conexão, você pode usar o Catalog Explorer ou o comando CREATE CONNECTION do SQL em um Notebook do Databricks ou no editor de consultas SQL do Databricks.

nota

O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar uma conexão. Veja POST /api/2.1/unity-catalog/connections e Unity Catalog comando.

Permissões necessárias: Administrador do Metastore ou usuário com o privilégio CREATE CONNECTION.

  1. Em seu site Databricks workspace, clique em Ícone de catálogo Catalog .

  2. Na parte superior do painel Catálogo , clique no ícone Ícone de adicionar ou ícone de mais Adicionar e selecione Adicionar uma conexão no menu.

    Como alternativa, na página de acesso rápido , clique no botão Dados externos >, acesse a tab Conexões e clique em Criar conexão .

  3. Na página Noções básicas de conexão do assistente de configuração de conexão , insira um nome de conexão fácil de usar.

  4. Selecione um tipo de conexão do Salesforce Data Cloud .

  5. (Opcional) Adicione um comentário.

  6. Na página Autenticação , insira as seguintes propriedades de conexão para seu Salesforce Data Cloud:

    • (Opcional) Selecione Is sandbox .
    • ID do cliente : Consumidor do aplicativo conectado do Salesforce key.
    • Segredo do cliente: segredo do consumidor do aplicativo conectado à Salesforce.
    • Escopo do cliente : cdp_api api cdp_query_api refresh_token offline_access
  7. Clique em Entrar com o Salesforce .

  8. (OAuth) Será solicitado que o senhor faça login no Salesforce Data Cloud usando suas credenciais de SSO.

  9. Após o login bem-sucedido, o senhor será direcionado de volta ao assistente de conexão do Databricks Set up. O botão Entrar com o Salesforce foi substituído por uma mensagem Successfully authorized.

  10. Clique em Criar conexão .

  11. Na página Noções básicas do catálogo , insira um nome para o catálogo estrangeiro. Um catálogo externo espelha um banco de dados em um sistema de dados externo para que o senhor possa consultar e gerenciar o acesso aos dados desse banco de dados usando o Databricks e o Unity Catalog.

  12. Entre no espaço de dados do Salesforce.

  13. (Opcional) Clique em Testar conexão para confirmar se está funcionando.

  14. Clique em Criar catálogo .

  15. Na página Access (Acesso) , selecione o espaço de trabalho no qual os usuários podem acessar o catálogo que o senhor criou. O senhor pode selecionar All workspace have access (Todos os espaços de trabalho têm acesso ) ou clicar em Assign to workspace (Atribuir ao espaço de trabalho), selecionar o espaço de trabalho e clicar em Assign (Atribuir ).

  16. Altere o proprietário que poderá gerenciar o acesso a todos os objetos no catálogo. começar a digitar um diretor na caixa de texto e, em seguida, clicar no diretor nos resultados retornados.

  17. Conceda privilégios no catálogo. Clique em Conceder :

    1. Especifique os diretores que terão acesso aos objetos no catálogo. começar a digitar um diretor na caixa de texto e, em seguida, clicar no diretor nos resultados retornados.

    2. Selecione as predefinições de privilégios a serem concedidas a cada diretor. Todos os usuários de account recebem BROWSE por default.

      • Selecione Leitor de dados no menu suspenso para conceder privilégios read em objetos no catálogo.
      • Selecione Editor de dados no menu suspenso para conceder os privilégios read e modify aos objetos no catálogo.
      • Selecione manualmente os privilégios a serem concedidos.
    3. Clique em Conceder .

  18. Clique em Avançar .

  19. Na página Metadata (Metadados ), especifique as tags em key-value. Para obter mais informações, consulte Apply tags to Unity Catalog securable objects.

  20. (Opcional) Adicione um comentário.

  21. Clique em Salvar .

Crie um catálogo estrangeiro

nota

Se o senhor usar a interface do usuário para criar uma conexão com a fonte de dados, a criação do catálogo externo estará incluída e o senhor poderá ignorar essa etapa.

Um catálogo externo espelha um banco de dados em um sistema de dados externo para você consultar e gerenciar o acesso aos dados nesse banco de dados com Databricks e Unity Catalog. Para criar um catálogo externo, utiliza-se uma conexão com a fonte de dados que já foi definida.

Para criar um catálogo externo, o senhor pode usar o Catalog Explorer ou o comando CREATE FOREIGN CATALOG SQL em um Notebook Databricks ou o editor de consultas SQL. O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar um catálogo. Veja POST /api/2.1/unity-catalog/catalogs e Unity Catalog comando.

Permissões necessárias: permissão CREATE CATALOG na metastore e propriedade da conexão ou o privilégio CREATE FOREIGN CATALOG na conexão.

  1. Em seu site Databricks workspace, clique em Ícone de catálogo Catalog para abrir o Catalog Explorer.

  2. No canto superior direito, clique em Criar catálogo .

  3. Insira as propriedades a seguir para seu catálogo do Salesforce Data Cloud.

    • Nome do catálogo : um nome fácil de usar para o catálogo.
    • Tipo : Foreign.
    • Nome da conexão : o nome da conexão na qual o catálogo será criado.
    • Espaço de dados: um espaço de dados do Salesforce.
  4. Clique em Criar .

Pushdowns suportados

Os seguintes pushdowns são suportados:

  • Filtros
  • Projeções
  • Limite
  • Agregados
  • deslocamento
  • Elenco
  • Contém, começa com, termina com

Mapeamentos de tipos de dados

Quando o senhor lê do Salesforce Data Cloud para o Spark, os tipos de dados são mapeados da seguinte forma:

Tipo de nuvem de dados do Salesforce

Spark tipo

Booleana

Tipo booleano

Data

Tipo de data

Data e hora

timestampType

e-mail, telefone, texto, URL

Tipo de string

Número, Porcentagem

Tipo decimal (38, 18)

Limitações

  • Só há suporte para um espaço de dados do Salesforce por catálogo do Databricks.
  • No Databricks Runtime 16.1 e versões anteriores, não há suporte para nomes de tabelas e esquemas que diferenciam maiúsculas de minúsculas. Isso inclui nomes com letras maiúsculas no Salesforce Data Cloud. Por exemplo, MyTable não é suportado.