Pular para o conteúdo principal

Perguntas frequentes sobre o conector de ingestão do Salesforce

Esta página responde a perguntas frequentes sobre o conector de ingestão do Salesforce em Databricks LakeFlow Connect.

Perguntas frequentes sobre o conector de gerenciar geral

As respostas nas perguntas frequentes sobre o conector gerenciar se aplicam a todos os conectores gerenciar em LakeFlow Connect. Continue lendo as perguntas frequentes específicas do Salesforce.

Qual produto do Salesforce é compatível com o conector de ingestão do Salesforce?

LakeFlow Connect suporta a ingestão de dados do produto Salesforce na tabela a seguir. Como alternativa à ingestão, o site Databricks oferece conectores de cópia zero no Lakehouse Federation para consultar dados no Salesforce Data Cloud: compartilhamento de arquivos e federação de consultas.

Salesforce produto

LakeFlow Connect suporte

Opções alternativas

Nuvem automotiva

cheque marcado sim

Comércio B2B

cheque marcado sim

Nuvem de comércio B2C

x marca não

Nuvem de dados

Nuvem de dados

cheque marcado sim

Engajamento digital

cheque marcado sim

Nuvem educacional

cheque marcado sim

Nuvem de energia e utilidades

cheque marcado sim

Experience Cloud

cheque marcado sim

Gerenciamento de feedback

cheque marcado sim

Serviço de campo

cheque marcado sim

Nuvem de saúde

cheque marcado sim

Nuvem de ciências biológicas

cheque marcado sim

Plataforma Lightning

cheque marcado sim

Nuvem de fidelidade

cheque marcado sim

Nuvem de mídia

cheque marcado sim

Nuvem de manufatura

cheque marcado sim

Nuvem de marketing

x marca não

Nuvem de dados

Nuvem Net Zero

cheque marcado sim

Nuvem sem fins lucrativos

cheque marcado sim

Gerenciamento de pedidos

cheque marcado sim

Plataforma (objetos padrão e personalizados)

cheque marcado sim

Soluções para o setor público

cheque marcado sim

Gestão de descontos

cheque marcado sim

Nuvem de bens de consumo & para varejo

cheque marcado sim

Nuvem de receita

cheque marcado sim

ventas Cloud

cheque marcado sim

Mapas do Salesforce

cheque marcado sim

Programador do Salesforce

cheque marcado sim

serviço Cloud

cheque marcado sim

Qual conector Salesforce devo usar?

A Databricks oferece vários conectores para o Salesforce. Há dois conectores de cópia zero: o conector de compartilhamento de arquivos do Salesforce Data Cloud e o conector de federação de consultas do Salesforce Data Cloud. Isso permite que você consulte dados no Salesforce Data Cloud sem movê-los. Há também um conector de ingestão do Salesforce que copia dados de vários produtos do Salesforce, incluindo o Salesforce Data Cloud e o Salesforce Ventas Cloud.

A tabela a seguir resume as diferenças entre os conectores do Salesforce na Databricks:

Conector

Caso de uso

Produto Salesforce suportado

Compartilhamento de arquivos do Salesforce Data Cloud

Quando o senhor usa o conector de compartilhamento de arquivos do Salesforce Data Cloud no Lakehouse Federation, o site Databricks chama o Salesforce Data-as-a-serviço (DaaS) APIs para ler diretamente os dados no local de armazenamento de objetos na nuvem subjacente. As consultas são executadas em Databricks compute sem usar o protocolo JDBC.

Comparado à federação de consultas, o compartilhamento de arquivos é ideal para federar uma grande quantidade de dados. Ele oferece melhor desempenho para a leitura de arquivos de várias fontes de dados e melhores recursos de pushdown. Consulte Lakehouse Federation for Salesforce Data Cloud File compartilhamento.

Nuvem de dados do Salesforce

Federação de consultas do Salesforce Data Cloud

Quando o senhor usa o conector de federação de consultas do Salesforce Data Cloud no Lakehouse Federation, o site Databricks usa o JDBC para se conectar aos dados de origem e envia as consultas para o Salesforce. Consulte execução de consultas federadas no Salesforce Data Cloud.

Nuvem de dados do Salesforce

Ingestão do Salesforce

O conector de ingestão do Salesforce em LakeFlow Connect permite que o senhor crie um pipeline de ingestão totalmente gerenciado a partir dos dados da Salesforce Platform, incluindo dados no Salesforce Data Cloud e no Salesforce Ventas Cloud. Esse conector maximiza o valor aproveitando não apenas os dados do CDP, mas também os dados do CRM na Plataforma de Inteligência de Dados. Consulte Ingerir dados do Salesforce.

Salesforce Data Cloud, Salesforce ventas Cloud e muito mais. Para obter uma lista abrangente dos produtos do Salesforce compatíveis, consulte a pergunta frequente Qual produto do Salesforce é compatível com o conector de ingestão do Salesforce? nesta página.

Quais APIs do Salesforce o conector de ingestão usa?

O conector usa o Salesforce Bulk API 2.0 e o Salesforce REST API v63. Para cada atualização do pipeline, o conector escolhe a API com base na quantidade de dados que deve ser ingerida. O objetivo é limitar a carga nas APIs do Salesforce. Para uma quantidade maior de dados (por exemplo, a carga inicial de um objeto típico ou a carga incremental de um objeto muito ativo), o conector normalmente usa a Bulk API. Para uma quantidade menor de dados (por exemplo, a carga incremental de um objeto típico ou a carga inicial de um objeto muito pequeno), o conector normalmente usa a API REST.

Como a Databricks se conecta ao Salesforce?

A Databricks se conecta às APIs do Salesforce usando HTTPS. As credenciais são armazenadas de forma segura no Unity Catalog e só podem ser recuperadas se o usuário que estiver executando o fluxo de ingestão tiver as permissões adequadas. Opcionalmente, você pode criar um usuário separado dentro do Salesforce para ingerir dados. Se houver objetos ou colunas específicos aos quais o senhor deseja restringir o acesso, poderá usar as permissões do integrada Salesforce para garantir que o usuário de ingestão não tenha acesso a essas entidades.

Quantos objetos do Salesforce podem ser ingeridos em um pipeline?

A Databricks recomenda limitar um pipeline do Salesforce a 250 tabelas. Se o senhor precisar ingerir mais objetos, crie vários pipelines.

Há um limite no número de atributos por objeto?

Não.

Como o conector extrai atualizações de forma incremental?

O conector seleciona a coluna do cursor na lista a seguir, em ordem de preferência: SystemModstamp, LastModifiedDate, CreatedDate e LoginTime. Por exemplo, se SystemModstamp não estiver disponível, ele procurará LastModifiedDate. Objetos que não têm nenhuma dessas colunas não podem ser ingeridos de forma incremental. Os campos de fórmula não podem ser ingeridos de forma incremental.

Por que o número de atualizações corresponde ao número de linhas - mesmo em uma execução pipeline incremental?

O conector é totalmente downloads campos de fórmula durante cada atualização do pipeline. Em paralelo, ele lê incrementalmente campos que não são fórmulas. Finalmente, ele os combina em uma tabela.

Como o conector lida com novas tentativas?

O conector tenta automaticamente novamente em caso de falha, com recuo exponencial. Ele espera 1 segundo antes de tentar novamente, depois 2 segundos, depois 4 segundos e assim por diante. Eventualmente, ele para de tentar novamente até a próxima execução do pipeline. O senhor pode monitorar essa atividade nos logs de uso do pipeline e pode configurar notificações para falhas fatais.

Como o conector lida com tipos de dados incompatíveis com Delta?

LakeFlow Connect transforma automaticamente os tipos de dados do Salesforce em tipos de dados compatíveis com Delta. Consulte a referência do conector de ingestão do Salesforce.

O conector oferece suporte à ingestão em tempo real?

Não. Se o senhor estiver interessado nessa funcionalidade, entre em contato com a equipe do account.

Como o conector lida com exclusões flexíveis?

As exclusões reversíveis são tratadas da mesma forma que as inserções e atualizações.

Se sua tabela tiver o acompanhamento de histórico desativado: Quando uma linha é excluída suavemente do Salesforce, ela é excluída da tabela bronze na próxima sincronização dos dados. Por exemplo, suponha que o senhor tenha um pipeline sendo executado de hora em hora. Se você sincronizar às 12h e tiver um registro excluído às 12h30, a exclusão não será refletida até que a sincronização às 13h ocorra.

Se a sua tabela tiver o histórico de acompanhamento ativado, o senhor pode usar o conector: O conector marca a linha original como inativa, preenchendo a coluna __END_AT.

Há um caso extremo: Se os registros foram excluídos e depois removidos da lixeira do Salesforce antes da próxima atualização do pipeline. Nesse caso, o site Databricks não vê as exclusões; o senhor deve preencher o site refresh na tabela de destino para refleti-las.

Observe que alguns objetos do Salesforce, como o objeto história, não suportam exclusões flexíveis.

Como o conector lida com exclusões forçosas?

As exclusões definitivas não são suportadas automaticamente; o senhor deve preencher refresh a tabela de destino para refleti-las.