Pular para o conteúdo principal

Perguntas frequentes sobre o conector de ingestão do Salesforce

Esta página responde a perguntas frequentes sobre o conector de ingestão do Salesforce em Databricks LakeFlow Connect.

Perguntas frequentes sobre o conector de gerenciar geral

As respostas nas perguntas frequentes sobre o conector gerenciar se aplicam a todos os conectores gerenciar em LakeFlow Connect. Continue lendo as perguntas frequentes específicas do Salesforce.

Perguntas frequentes específicas sobre conectores

As respostas nesta seção são específicas para o conector de ingestão do Salesforce.

Qual produto do Salesforce é compatível com o conector?

LakeFlow Connect suporta a ingestão de dados do produto Salesforce na tabela a seguir. Databricks também oferece um conector de cópia zero no Lakehouse Federation para executar consultas federadas no Salesforce Data Cloud.

Salesforce produto

LakeFlow Connect suporte

Opções alternativas

Nuvem automotiva

cheque marcado sim

Comércio B2B

cheque marcado sim

Nuvem de comércio B2C

x marca não

Nuvem de dados

Nuvem de dados

cheque marcado sim

Engajamento digital

cheque marcado sim

Nuvem educacional

cheque marcado sim

Nuvem de energia e utilidades

cheque marcado sim

Experience Cloud

cheque marcado sim

Gerenciamento de feedback

cheque marcado sim

Serviço de campo

cheque marcado sim

Nuvem de saúde

cheque marcado sim

Nuvem de ciências biológicas

cheque marcado sim

Plataforma Lightning

cheque marcado sim

Nuvem de fidelidade

cheque marcado sim

Nuvem de mídia

cheque marcado sim

Nuvem de manufatura

cheque marcado sim

Nuvem de marketing

x marca não

Nuvem de dados

Nuvem Net Zero

cheque marcado sim

Nuvem sem fins lucrativos

cheque marcado sim

Gerenciamento de pedidos

cheque marcado sim

Plataforma (objetos padrão e personalizados)

cheque marcado sim

Soluções para o setor público

cheque marcado sim

Gestão de descontos

cheque marcado sim

Nuvem de bens de consumo & para varejo

cheque marcado sim

Nuvem de receita

cheque marcado sim

ventas Cloud

cheque marcado sim

Mapas do Salesforce

cheque marcado sim

Programador do Salesforce

cheque marcado sim

serviço Cloud

cheque marcado sim

Qual é a relação entre esse conector e o conector federado do Salesforce Data Cloud?

Esses produtos são distintos. Databricks fez parceria com a Salesforce para oferecer um conector de cópia zero que consulta dados no Salesforce Data Cloud. Em contrapartida, o site LakeFlow Connect oferece um conector de ingestão que copia dados da Salesforce Platform. Quando combinado com o LakeFlow Connect for Salesforce, isso permite que os clientes maximizem ainda mais o valor, aproveitando não apenas os dados do CDP, mas também os dados do CRM na Data Intelligence Platform.

Qual Salesforce APIs o senhor usa? LakeFlow Connect?

O conector usa o Salesforce Bulk API 2.0 e o Salesforce REST API v63. Para cada atualização do pipeline, o conector escolhe a API com base na quantidade de dados que deve ser ingerida. O objetivo é limitar a carga nas APIs do Salesforce. Para uma quantidade maior de dados (por exemplo, a carga inicial de um objeto típico ou a carga incremental de um objeto muito ativo), o conector normalmente usa a Bulk API. Para uma quantidade menor de dados (por exemplo, a carga incremental de um objeto típico ou a carga inicial de um objeto muito pequeno), o conector normalmente usa a API REST.

Como a Databricks se conecta ao Salesforce?

A Databricks se conecta às APIs do Salesforce usando HTTPS. As credenciais são armazenadas de forma segura no Unity Catalog e só podem ser recuperadas se o usuário que estiver executando o fluxo de ingestão tiver as permissões adequadas. Opcionalmente, você pode criar um usuário separado dentro do Salesforce para ingerir dados. Se houver objetos ou colunas específicos aos quais o senhor deseja restringir o acesso, poderá usar as permissões do integrada Salesforce para garantir que o usuário de ingestão não tenha acesso a essas entidades.

Quantos objetos do Salesforce podem ser ingeridos em um pipeline?

A Databricks recomenda limitar um pipeline do Salesforce a 250 tabelas. Se o senhor precisar ingerir mais objetos, crie vários pipelines.

Há um limite no número de atributos por objeto?

Não.

Como o conector extrai atualizações de forma incremental?

O conector seleciona a coluna do cursor na lista a seguir, em ordem de preferência: SystemModstamp, LastModifiedDate, CreatedDate e LoginTime. Por exemplo, se SystemModstamp não estiver disponível, ele procurará LastModifiedDate. Objetos que não têm nenhuma dessas colunas não podem ser ingeridos de forma incremental. Os campos de fórmula não podem ser ingeridos de forma incremental.

Por que o número de atualizações corresponde ao número de linhas - mesmo em uma execução pipeline incremental?

O conector é totalmente downloads campos de fórmula durante cada atualização do pipeline. Em paralelo, ele lê incrementalmente campos que não são fórmulas. Finalmente, ele os combina em uma tabela.

Como o conector lida com novas tentativas?

O conector tenta automaticamente novamente em caso de falha, com recuo exponencial. Ele espera 1 segundo antes de tentar novamente, depois 2 segundos, depois 4 segundos e assim por diante. Eventualmente, ele para de tentar novamente até a próxima execução do pipeline. O senhor pode monitorar essa atividade nos logs de uso do pipeline e pode configurar notificações para falhas fatais.

Como o conector lida com tipos de dados incompatíveis com Delta?

LakeFlow Connect transforma automaticamente os tipos de dados do Salesforce em tipos de dados compatíveis com Delta. Consulte a referência do conector de ingestão do Salesforce.

O conector oferece suporte à ingestão em tempo real?

Não. Se o senhor estiver interessado nessa funcionalidade, entre em contato com a equipe do account.

Como o conector lida com exclusões flexíveis?

As exclusões reversíveis são tratadas da mesma forma que as inserções e atualizações.

Se sua tabela tiver o acompanhamento de histórico desativado: Quando uma linha é excluída suavemente do Salesforce, ela é excluída da tabela bronze na próxima sincronização dos dados. Por exemplo, suponha que o senhor tenha um pipeline sendo executado de hora em hora. Se você sincronizar às 12h e tiver um registro excluído às 12h30, a exclusão não será refletida até que a sincronização às 13h ocorra.

Se a sua tabela tiver o histórico de acompanhamento ativado, o senhor pode usar o conector: O conector marca a linha original como inativa, preenchendo a coluna __END_AT.

Há um caso extremo: Se os registros foram excluídos e depois removidos da lixeira do Salesforce antes da próxima atualização do pipeline. Nesse caso, o site Databricks não vê as exclusões; o senhor deve preencher o site refresh na tabela de destino para refleti-las.

Observe que alguns objetos do Salesforce, como o objeto história, não suportam exclusões flexíveis.

Como o conector lida com exclusões forçosas?

As exclusões definitivas não são suportadas automaticamente; o senhor deve preencher refresh a tabela de destino para refleti-las.