lakehouse Federation for Salesforce Data 360 Compartilhamento de arquivos
Esta página descreve como ler dados no Salesforce Data 360 (anteriormente Data Cloud) usando o conector de compartilhamento de arquivos.
Qual conector Salesforce devo usar?
A Databricks oferece diversos conectores para o Salesforce. Existem dois conectores sem cópia: o conector de compartilhamento de arquivos do Salesforce Data 360 e o conector de federação de consultas do Salesforce Data 360. Essas opções permitem consultar dados no Salesforce Data 360 sem precisar movê-los. Existe também um conector de ingestão do Salesforce que copia dados de vários produtos do Salesforce.
A tabela a seguir resume as diferenças entre os conectores do Salesforce na Databricks:
Conector | Caso de uso | Produto Salesforce suportado |
|---|---|---|
Compartilhamento de arquivos do Salesforce Data 360 | Ao usar o conector de compartilhamento de arquivos do Salesforce Data 360 na Federação Lakehouse, Databricks chama APIs do Salesforce Data-as-a-Serviço (DaaS) para ler os dados diretamente no local de armazenamento de objetos cloud subjacente. As consultas são executadas no Databricks compute sem usar o protocolo JDBC . Em comparação com a federação de consultas, o compartilhamento de arquivos é ideal para federar uma grande quantidade de dados. Oferece desempenho aprimorado na leitura de arquivos de múltiplas fontes de dados e melhores recursos de pushdown. Consulte Compartilhamento de arquivos da Lakehouse Federation para Salesforce Data 360. | Salesforce Data 360 |
Federação de consultas do Salesforce Data 360 | Ao usar o conector de federação de consultas do Salesforce Data 360 no ambiente Lakehouse Federation, Databricks utiliza JDBC para se conectar aos dados de origem e envia as consultas para o Salesforce. Consulte execução de consultas federadas no Salesforce Data 360. | Salesforce Data 360 |
Ingestão do Salesforce | O conector de ingestão do Salesforce no LakeFlow Connect permite criar um pipeline de ingestão totalmente gerenciado a partir dos dados da plataforma Salesforce. Esse conector maximiza o valor aproveitando não apenas os dados do CDP, mas também os dados do CRM na Plataforma de Inteligência de Dados. Consulte Ingerir dados do Salesforce. | Consulte Qual produto Salesforce é compatível com o conector de ingestão do Salesforce? |
Antes de começar
Requisitos do workspace:
- Espaço de trabalho preparado para o Catálogo do Unity.
Requisitos de computação:
- Conectividade de rede do seu recurso compute Databricks para a API do Salesforce Data 360 e para os buckets públicos S3 do Salesforce Data 360 onde os dados residem. Consulte as recomendações de rede para a Federação Lakehouse.
- Databricks O clustering deve usar Databricks Runtime 16.3 ou acima e o modo de acesso padrão.
- SQL warehouses devem ser Pro ou Serverless.
Permissões necessárias:
- Para criar uma conexão, é preciso ser administrador de metastore ou usuário com o privilégio
CREATE CONNECTIONno metastore do Unity Catalog anexado ao espaço de trabalho. - Para criar um catálogo externo é preciso ter a permissão
CREATE CATALOGno metastore e ser proprietário da conexão ou ter o privilégioCREATE FOREIGN CATALOGna conexão.
Outros requisitos de permissão são definidos em cada seção baseada em tarefa a seguir.
Crie uma conexão e um catálogo estrangeiro
A conexão especifica um caminho e as credenciais para acessar um sistema de banco de dados externo. Para criar uma conexão, você pode usar o Catalog Explorer ou o comando CREATE CONNECTION do SQL em um Notebook do Databricks ou no editor de consultas SQL do Databricks.
O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar uma conexão. Veja POST /api/2.1/unity-catalog/connections e Unity Catalog comando.
Permissões necessárias: Administrador do Metastore ou usuário com o privilégio CREATE CONNECTION.
- Catalog Explorer
- SQL
-
Em seu site Databricks workspace, clique em
Catalog .
-
Na parte superior do painel Catálogo , clique no ícone
Adicionar e selecione Adicionar uma conexão no menu.
Como alternativa, na página de acesso rápido , clique no botão Dados externos >, acesse a tab Conexões e clique em Criar conexão .
-
Na página Noções básicas de conexão do assistente de configuração de conexão , insira um nome de conexão fácil de usar.
-
Selecione um tipo de conexão para o compartilhamento de arquivos do Salesforce Data 360 .
-
(Opcional) Adicione um comentário.
-
Clique em Criar conexão .
-
Na página de Autenticação , insira as seguintes propriedades para sua instância de compartilhamento de arquivos do Salesforce Data 360:
- endpoint específico do locatário : Por exemplo,
https://mvsw0mbrmqzdcyj-m02t0mrsh1.pc-rnd.c360a.salesforce.com - Id. do locatário principal : Por exemplo,
core/falcontest8-core4sdb26/00DVF000001E16v2AC
- endpoint específico do locatário : Por exemplo,
-
Na página Noções básicas do catálogo , insira um nome para o catálogo estrangeiro. Um catálogo externo espelha um banco de dados em um sistema de dados externo para que o senhor possa consultar e gerenciar o acesso aos dados desse banco de dados usando o Databricks e o Unity Catalog.
-
(Opcional) Clique em Testar conexão para confirmar se está funcionando.
-
Clique em Criar catálogo .
-
Na página Access (Acesso) , selecione o espaço de trabalho no qual os usuários podem acessar o catálogo que o senhor criou. O senhor pode selecionar All workspace have access (Todos os espaços de trabalho têm acesso ) ou clicar em Assign to workspace (Atribuir ao espaço de trabalho), selecionar o espaço de trabalho e clicar em Assign (Atribuir ).
-
Altere o proprietário que poderá gerenciar o acesso a todos os objetos no catálogo. começar a digitar um diretor na caixa de texto e, em seguida, clicar no diretor nos resultados retornados.
-
Conceda privilégios no catálogo. Clique em Conceder :
a. Especifique os diretores que terão acesso aos objetos no catálogo. começar a digitar um diretor na caixa de texto e, em seguida, clicar no diretor nos resultados retornados. a. Selecione as predefinições de privilégios a serem concedidas a cada diretor. Todos os usuários de account recebem
BROWSEpor default.- Selecione Leitor de dados no menu suspenso para conceder privilégios
readem objetos no catálogo. - Selecione Editor de dados no menu suspenso para conceder os privilégios
reademodifyaos objetos no catálogo. - Selecione manualmente os privilégios a serem concedidos.
a. Clique em Conceder .
- Selecione Leitor de dados no menu suspenso para conceder privilégios
-
Clique em Avançar .
-
Na página Metadata (Metadados ), especifique as tags em key-value. Para obter mais informações, consulte Apply tags to Unity Catalog securable objects.
-
(Opcional) Adicione um comentário.
-
Clique em Salvar .
-
Anote o
Account URLe oConnection URL. Você precisará desses valores para criar uma meta de compartilhamento de dados no Salesforce.
-
Execute o seguinte comando em um notebook ou no editor de consultas SQL do Databricks.
SQLCREATE CONNECTION <connection-name> TYPE SALESFORCE_DATA_CLOUD_FILE_SHARING
OPTIONS (
tenant_specific_endpoint '<tenant_specific_endpoint>',
core_tenant_id '<core_tenant_id>'
); -
Vá para a página de conexão da conexão recém-criada e anote o
Account URLe oConnection URL. Você precisará desses valores para criar uma meta de compartilhamento de dados no Salesforce.
Crie uma meta de compartilhamento de dados no Salesforce
Crie uma meta de compartilhamento de dados no Salesforce usando o Account URL e o Connection URL que você recuperou na etapa anterior.
Consulte Criar um destino de compartilhamento de dados (Databricks) na documentação do Salesforce.
Mapeamentos de tipos de dados
Ao ler dados do Salesforce Data 360 File Compartilhament para Spark, os tipos de dados são mapeados da seguinte forma:
Tipo de compartilhamento de arquivos do Salesforce Data 360 | Spark tipo |
|---|---|
Número | Tipo decimal (38, 18) |
Booleana | Tipo booleano |
TEXT | Tipo de string |
Data | Tipo de data |
Data e hora | timestampType |
email (Texto) | Tipo de string |
Porcentagem (Número) | Tipo decimal (38, 18) |
Telefone (Texto) | Tipo de string |
URL (Texto) | Tipo de string |
Limitações
- O conector não pode ser usado com clustering de usuário único.