Perguntas frequentes sobre o conector de ingestão do Salesforce
Esta página responde a perguntas frequentes sobre o conector de ingestão do Salesforce em Databricks LakeFlow Connect.
Perguntas frequentes sobre o conector de gerenciar geral
As respostas nas perguntas frequentes sobre o conector gerenciar se aplicam a todos os conectores gerenciar em LakeFlow Connect. Continue lendo as perguntas frequentes específicas do Salesforce.
Perguntas frequentes específicas sobre conectores
As respostas nesta seção são específicas para o conector de ingestão do Salesforce.
Qual produto do Salesforce é compatível com o conector?
LakeFlow Connect suporta a ingestão de dados do produto Salesforce na tabela a seguir. Databricks também oferece um conector de cópia zero no Lakehouse Federation para executar consultas federadas no Salesforce Data Cloud.
Salesforce produto | LakeFlow Connect suporte | Opções alternativas |
---|---|---|
Nuvem automotiva | ||
Comércio B2B | ||
Nuvem de comércio B2C | Nuvem de dados | |
Nuvem de dados | ||
Engajamento digital | ||
Nuvem educacional | ||
Nuvem de energia e utilidades | ||
Experience Cloud | ||
Gerenciamento de feedback | ||
Serviço de campo | ||
Nuvem de saúde | ||
Nuvem de ciências biológicas | ||
Plataforma Lightning | ||
Nuvem de fidelidade | ||
Nuvem de mídia | ||
Nuvem de manufatura | ||
Nuvem de marketing | Nuvem de dados | |
Nuvem Net Zero | ||
Nuvem sem fins lucrativos | ||
Gerenciamento de pedidos | ||
Plataforma (objetos padrão e personalizados) | ||
Soluções para o setor público | ||
Gestão de descontos | ||
Nuvem de bens de consumo & para varejo | ||
Nuvem de receita | ||
ventas Cloud | ||
Mapas do Salesforce | ||
Programador do Salesforce | ||
serviço Cloud |
Qual é a relação entre esse conector e o conector federado do Salesforce Data Cloud?
Esses produtos são distintos. Databricks fez parceria com a Salesforce para oferecer um conector de cópia zero que consulta dados no Salesforce Data Cloud. Em contrapartida, o site LakeFlow Connect oferece um conector de ingestão que copia dados da Salesforce Platform. Quando combinado com o LakeFlow Connect for Salesforce, isso permite que os clientes maximizem ainda mais o valor, aproveitando não apenas os dados do CDP, mas também os dados do CRM na Data Intelligence Platform.
Qual Salesforce APIs o senhor usa? LakeFlow Connect?
O conector usa o Salesforce Bulk API 2.0 e o Salesforce REST API v63. Para cada atualização do pipeline, o conector escolhe a API com base na quantidade de dados que deve ser ingerida. O objetivo é limitar a carga nas APIs do Salesforce. Para uma quantidade maior de dados (por exemplo, a carga inicial de um objeto típico ou a carga incremental de um objeto muito ativo), o conector normalmente usa a Bulk API. Para uma quantidade menor de dados (por exemplo, a carga incremental de um objeto típico ou a carga inicial de um objeto muito pequeno), o conector normalmente usa a API REST.
Como a Databricks se conecta ao Salesforce?
A Databricks se conecta às APIs do Salesforce usando HTTPS. As credenciais são armazenadas de forma segura no Unity Catalog e só podem ser recuperadas se o usuário que estiver executando o fluxo de ingestão tiver as permissões adequadas. Opcionalmente, você pode criar um usuário separado dentro do Salesforce para ingerir dados. Se houver objetos ou colunas específicos aos quais o senhor deseja restringir o acesso, poderá usar as permissões do integrada Salesforce para garantir que o usuário de ingestão não tenha acesso a essas entidades.
Quantos objetos do Salesforce podem ser ingeridos em um pipeline?
A Databricks recomenda limitar um pipeline do Salesforce a 250 tabelas. Se o senhor precisar ingerir mais objetos, crie vários pipelines.
Há um limite no número de atributos por objeto?
Não.
Como o conector extrai atualizações de forma incremental?
O conector seleciona a coluna do cursor na lista a seguir, em ordem de preferência: SystemModstamp
, LastModifiedDate
, CreatedDate
e LoginTime
. Por exemplo, se SystemModstamp
não estiver disponível, ele procurará LastModifiedDate
. Objetos que não têm nenhuma dessas colunas não podem ser ingeridos de forma incremental. Os campos de fórmula não podem ser ingeridos de forma incremental.
Por que o número de atualizações corresponde ao número de linhas - mesmo em uma execução pipeline incremental?
O conector é totalmente downloads campos de fórmula durante cada atualização do pipeline. Em paralelo, ele lê incrementalmente campos que não são fórmulas. Finalmente, ele os combina em uma tabela.
Como o conector lida com novas tentativas?
O conector tenta automaticamente novamente em caso de falha, com recuo exponencial. Ele espera 1 segundo antes de tentar novamente, depois 2 segundos, depois 4 segundos e assim por diante. Eventualmente, ele para de tentar novamente até a próxima execução do pipeline. O senhor pode monitorar essa atividade nos logs de uso do pipeline e pode configurar notificações para falhas fatais.
Como o conector lida com tipos de dados incompatíveis com Delta?
LakeFlow Connect transforma automaticamente os tipos de dados do Salesforce em tipos de dados compatíveis com Delta. Consulte a referência do conector de ingestão do Salesforce.
O conector oferece suporte à ingestão em tempo real?
Não. Se o senhor estiver interessado nessa funcionalidade, entre em contato com a equipe do account.
Como o conector lida com exclusões flexíveis?
As exclusões reversíveis são tratadas da mesma forma que as inserções e atualizações.
Se sua tabela tiver o acompanhamento de histórico desativado: Quando uma linha é excluída suavemente do Salesforce, ela é excluída da tabela bronze na próxima sincronização dos dados. Por exemplo, suponha que o senhor tenha um pipeline sendo executado de hora em hora. Se você sincronizar às 12h e tiver um registro excluído às 12h30, a exclusão não será refletida até que a sincronização às 13h ocorra.
Se a sua tabela tiver o histórico de acompanhamento ativado, o senhor pode usar o conector: O conector marca a linha original como inativa, preenchendo a coluna __END_AT.
Há um caso extremo: Se os registros foram excluídos e depois removidos da lixeira do Salesforce antes da próxima atualização do pipeline. Nesse caso, o site Databricks não vê as exclusões; o senhor deve preencher o site refresh na tabela de destino para refleti-las.
Observe que alguns objetos do Salesforce, como o objeto história, não suportam exclusões flexíveis.
Como o conector lida com exclusões forçosas?
As exclusões definitivas não são suportadas automaticamente; o senhor deve preencher refresh a tabela de destino para refleti-las.