execução de consultas federadas no Salesforce Data Cloud
Este artigo descreve como configurar o Lakehouse Federation para executar consultas federadas nos dados do Salesforce Data Cloud que não são gerenciados por Databricks. Para saber mais sobre a lakehouse Federation, consulte O que é a lakehouse Federation?
Para se conectar ao banco de dados do Salesforce Data Cloud usando o Lakehouse Federation, o senhor deve criar o seguinte no metastore Databricks Unity Catalog :
- Uma conexão com seu banco de dados do Salesforce Data Cloud.
- Um catálogo externo que espelha o banco de dados do Salesforce Data Cloud no Unity Catalog para que o senhor possa usar a sintaxe de consulta do Unity Catalog e as ferramentas de governança de dados para gerenciar o acesso do usuário do Databricks ao banco de dados.
Antes de começar
Requisitos do workspace:
- Espaço de trabalho preparado para o Catálogo do Unity.
Requisitos de computação:
- Conectividade de rede do seu recurso compute para os sistemas de banco de dados de destino. Veja as recomendações do Networking para a Lakehouse Federation.
- Databricks compute deve usar o site Databricks Runtime 15.2 ou acima e o modo de acesso Standard ou Dedicated .
- SQL O armazém deve ser pro ou serverless e deve usar 2024.30 ou acima.
Permissões necessárias:
- Para criar uma conexão, é preciso ser administrador de metastore ou usuário com o privilégio
CREATE CONNECTION
no metastore do Unity Catalog anexado ao espaço de trabalho. - Para criar um catálogo externo é preciso ter a permissão
CREATE CATALOG
no metastore e ser proprietário da conexão ou ter o privilégioCREATE FOREIGN CATALOG
na conexão.
Outros requisitos de permissão são definidos em cada seção baseada em tarefa a seguir.
Crie um aplicativo conectado ao Salesforce
Os aplicativos conectados ao Salesforce permitem que um aplicativo externo se integre ao Salesforce usando APIs e protocolos padrão. Esta seção descreve como criar um aplicativo conectado usando SSO para permitir que o Databricks se autentique no Salesforce.
Para obter instruções mais detalhadas, consulte Criar um aplicativo conectado na documentação do Salesforce Data Cloud.
Para criar um aplicativo conectado ao Salesforce, faça o seguinte:
-
No canto superior direito do Data Cloud, clique em Configurar.
-
Em Ferramentas da plataforma , clique em Apps > App Manager .
-
Clique em Novo aplicativo conectado .
-
Digite um nome e um endereço de contato email.
-
Ativar as configurações do OAuth :
-
Insira o URL de retorno de chamada, no seguinte formato:
https://<databricks_instance_url>/login/oauth/salesforce.html
. Por exemplo:https://cust-success.cloud.databricks.com/login/oauth/salesforce.html
. -
(Opcional) Se o senhor planeja usar o SQL para criar a conexão Databricks e o catálogo externo na próxima etapa, seu Salesforce Connected App também precisa suportar o URI de redirecionamento
https://login.salesforce.com/services/oauth2/success
. Isso não é necessário se o senhor planeja usar o Catalog Explorer para criar a conexão com o Databricks e o catálogo externo. A Databricks recomenda o uso do Catalog Explorer porque ele exige menos etapas manuais do que outros métodos. -
Adicione os seguintes escopos :
- Acessar todos os dados da nuvem API recurso (cdp_api )
- Gerenciar dados do usuário via APIs (api )
- Realizar consultas ANSI SQL nos dados do Data Cloud (cdp_query_api )
- Realizar solicitações a qualquer momento (refresh, offline_access )
-
Clique em Salvar .
-
Clique em "Continuar" .
-
-
Na página de visão geral do Connected App , clique em gerenciar Consumer Details . Você será solicitado a se autenticar.
-
Após a autenticação bem-sucedida, o consumidor key e o segredo do consumidor são revelados. Salve esses valores. O senhor precisará deles quando criar uma conexão com o Databricks.
Criar uma conexão com o Databricks
A conexão especifica um caminho e as credenciais para acessar um sistema de banco de dados externo. Para criar uma conexão, você pode usar o Catalog Explorer ou o comando CREATE CONNECTION
do SQL em um Notebook do Databricks ou no editor de consultas SQL do Databricks.
O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar uma conexão. Veja POST /api/2.1/unity-catalog/connections e Unity Catalog comando.
Permissões necessárias: Administrador do Metastore ou usuário com o privilégio CREATE CONNECTION
.
- Catalog Explorer
- SQL
-
In your Databricks workspace, click
Catalog.
-
At the top of the Catalog pane, click the
Add icon and select Add a connection from the menu.
Alternatively, from the Quick access page, click the External data > button, go to the Connections tab, and click Create connection.
-
On the Connection basics page of the Set up connection wizard, enter a user-friendly Connection name.
-
Select a Connection type of Salesforce Data Cloud.
-
(Optional) Add a comment.
-
On the Authentication page, enter the following connection properties for your Salesforce Data Cloud:
- (Optional) Select Is sandbox.
- Client ID: Salesforce connected app consumer key.
- Client secret: Salesforce connected app consumer secret.
- Client scope:
cdp_api api cdp_query_api refresh_token offline_access
-
Click Sign in with Salesforce.
-
(OAuth) You are prompted to sign in to Salesforce Data Cloud using your SSO credentials.
-
Upon successful login you are directed back to the Databricks Set up connection wizard. The Sign in with Salesforce button has been replaced with a
Successfully authorized
message. -
Click Create connection.
-
On the Catalog basics page, enter a name for the foreign catalog. A foreign catalog mirrors a database in an external data system so that you can query and manage access to data in that database using Databricks and Unity Catalog.
-
Enter the Salesforce data space.
-
(Optional) Click Test connection to confirm that it works.
-
Click Create catalog.
-
On the Access page, select the workspaces in which users can access the catalog you created. You can select All workspaces have access, or click Assign to workspaces, select the workspaces, and then click Assign.
-
Change the Owner who will be able to manage access to all objects in the catalog. Start typing a principal in the text box, and then click the principal in the returned results.
-
Grant Privileges on the catalog. Click Grant:
- Specify the Principals who will have access to objects in the catalog. Start typing a principal in the text box, and then click the principal in the returned results.
- Select the Privilege presets to grant to each principal. All account users are granted
BROWSE
by default.- Select Data Reader from the drop-down menu to grant
read
privileges on objects in the catalog. - Select Data Editor from the drop-down menu to grant
read
andmodify
privileges on objects in the catalog. - Manually select the privileges to grant.
- Select Data Reader from the drop-down menu to grant
- Click Grant.
-
Click Next.
-
On the Metadata page, specify tags key-value pairs. For more information, see Apply tags to Unity Catalog securable objects.
-
(Optional) Add a comment.
-
Click Save.
Databricks recommends using Catalog Explorer to create the connection and the foreign catalog because it requires fewer manual steps than other methods.
If you plan to use SQL to create the Databricks connection and the foreign catalog, your Salesforce Connected App needs to support the redirect URI https://login.salesforce.com/services/oauth2/success
. This isn’t needed if you use Catalog Explorer.
-
Generate PKCE code verifier and code challenge codes. You can do this using an online tool such as https://tonyxu-io.github.io/pkce-generator/ or by running the following Python script:
Python%python
import base64
import re
import os
import hashlib
code_verifier = base64.urlsafe_b64encode(os.urandom(40)).decode('utf-8')
code_verifier = re.sub('[^a-zA-Z0-9]+', '', code_verifier)
code_challenge = hashlib.sha256(code_verifier.encode('utf-8')).digest()
code_challenge = base64.urlsafe_b64encode(code_challenge).decode('utf-8')
code_challenge = code_challenge.replace('=', '')
print(f"pkce_verifier = \"{code_verifier}\"")
print(f"code_challenge = \"{code_challenge}\"") -
Visit the following URL and authenticate with your Salesforce credentials to get the
authorization_code
(replace<client_id>
and<code_challenge>
with your parameters).https://login.salesforce.com/services/oauth2/authorize
?client_id=<client_id>
&redirect_uri=https://login.salesforce.com/services/oauth2/success
&response_type=code
&code_challenge=<code_challenge>A URL-encoded authorization code is visible in the redirected URL.
-
Run the following in a notebook or the Databricks SQL query editor:
SQLCREATE CONNECTION '<Connection name>' TYPE salesforce_data_cloud
OPTIONS (
client_id '<Consumer key from Salesforce Connected App>',
client_secret '<Consumer secret from Salesforce Connected App>',
pkce_verifier '<pkce_verifier from the last step>',
authorization_code '<URL decoded `authorization_code`, should end with == instead of %3D%3D>',
oauth_redirect_uri "https://login.salesforce.com/services/oauth2/success",
oauth_scope "cdp_api api cdp_query_api refresh_token offline access",
is_sandbox "false"
);Databricks recommends that you use Databricks secrets instead of plaintext strings for sensitive values like credentials. For example:
SQLCREATE CONNECTION '<Connection name>' TYPE salesforce_data_cloud
OPTIONS (
client_id secret ('<Secret scope>','<Secret key client id>'),
client_secret secret ('<Secret scope>','<Secret key client secret>'),
pkce_verifier '<pkce_verifier from the last step>',
authorization_code '<URL decoded `authorization_code`, should end with == instead of %3D%3D>',
oauth_redirect_uri "https://login.salesforce.com/services/oauth2/success",
oauth_scope "cdp_api api cdp_query_api refresh_token offline access",
is_sandbox "false"
);For information about setting up secrets, see Secret management.
Crie um catálogo estrangeiro
Se o senhor usar a interface do usuário para criar uma conexão com a fonte de dados, a criação do catálogo externo estará incluída e o senhor poderá ignorar essa etapa.
Um catálogo externo espelha um banco de dados em um sistema de dados externo para você consultar e gerenciar o acesso aos dados nesse banco de dados com Databricks e Unity Catalog. Para criar um catálogo externo, utiliza-se uma conexão com a fonte de dados que já foi definida.
Para criar um catálogo externo, o senhor pode usar o Catalog Explorer ou o comando CREATE FOREIGN CATALOG
SQL em um Notebook Databricks ou o editor de consultas SQL. O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar um catálogo. Veja POST /api/2.1/unity-catalog/catalogs e Unity Catalog comando.
Permissões necessárias: permissão CREATE CATALOG
na metastore e propriedade da conexão ou o privilégio CREATE FOREIGN CATALOG
na conexão.
- Catalog Explorer
- SQL
- In your Databricks workspace, click
Catalog to open Catalog Explorer.
- In the upper right, click Create Catalog.
- Enter the following properties for your Salesforce Data Cloud catalog.
- Catalog name: A user-friendly name for the catalog.
- Type:
Foreign
. - Connection name: The name of the connection the catalog will be created on.
- Dataspace: A Salesforce data space.
- Click Create.
Run the following SQL command in a notebook or the SQL query editor. Items in brackets are optional.
CREATE FOREIGN CATALOG [IF NOT EXISTS] '<catalog-name>' USING CONNECTION '<connection-name>'
OPTIONS (dataspace '<dataspace>');
Replace the following values:
<catalog-name>
:<connection-name>
:<dataspace>
: Salesforce data space. For example,default
.
Pushdowns suportados
Os seguintes pushdowns são suportados:
- Filtros
- Projeções
- Limite
- Agregados
- deslocamento
- Elenco
- Contém, começa com, termina com
Mapeamentos de tipos de dados
Quando o senhor lê do Salesforce Data Cloud para o Spark, os tipos de dados são mapeados da seguinte forma:
Tipo de nuvem de dados do Salesforce | Spark tipo |
---|---|
Booleana | Tipo booleano |
Data | Tipo de data |
Data e hora | timestampType |
e-mail, telefone, texto, URL | Tipo de string |
Número, Porcentagem | Tipo decimal (38, 18) |
Limitações
- Só há suporte para um espaço de dados do Salesforce por catálogo do Databricks.