Pular para o conteúdo principal

execução de consultas federadas em Microsoft SQL Server

Este artigo descreve como configurar o Lakehouse Federation para executar consultas federadas nos dados do site SQL Server que não são gerenciados pelo site Databricks. Para saber mais sobre a lakehouse Federation, consulte O que é a lakehouse Federation?

Para se conectar ao banco de dados SQL Server usando a Lakehouse Federation, o senhor deve criar o seguinte no metastore Databricks Unity Catalog :

  • Uma conexão com o banco de dados do SQL Server.
  • Um catálogo externo que espelha o banco de dados do SQL Server no Unity Catalog para que o senhor possa usar a sintaxe de consulta do Unity Catalog e as ferramentas de governança de dados para gerenciar o acesso do usuário do Databricks ao banco de dados.

A lakehouse Federation oferece suporte a SQL Server, Azure SQL Database e Azure SQL gerenciar Instance.

Antes de começar

Requisitos do workspace:

  • Espaço de trabalho preparado para o Catálogo do Unity.

Requisitos de computação:

  • Conectividade de rede do seu recurso compute para os sistemas de banco de dados de destino. Veja as recomendações do Networking para a Lakehouse Federation.
  • Databricks compute O senhor deve usar Databricks Runtime 13.3 LTS ou acima e o modo de acesso Standard ou Dedicated .
  • Os SQL warehouse devem ser Pro ou Serverless e devem utilizar a versão 2023.40 ou superior.

Permissões necessárias:

  • Para criar uma conexão, é preciso ser administrador de metastore ou usuário com o privilégio CREATE CONNECTION no metastore do Unity Catalog anexado ao espaço de trabalho.
  • Para criar um catálogo externo é preciso ter a permissão CREATE CATALOG no metastore e ser proprietário da conexão ou ter o privilégio CREATE FOREIGN CATALOG na conexão.

Outros requisitos de permissão são definidos em cada seção baseada em tarefa a seguir.

  • Se o senhor planeja se autenticar usando OAuth, registre um aplicativo em Microsoft Entra ID para Databricks. Consulte a seção a seguir para obter detalhes.

(Opcional) registre um aplicativo em Microsoft Entra ID para Databricks

Se o senhor quiser se autenticar usando o OAuth, siga esta etapa antes de criar uma conexão com o SQL Server. Para autenticar usando um nome de usuário e senha em vez disso, pule esta seção.

  1. Faça login no portal do Azure.
  2. Na navegação à esquerda, clique em Microsoft Entra ID .
  3. Clique em Registros de aplicativos.
  4. Clique em Novo registro . Insira um nome para o novo aplicativo e defina o URI de redirecionamento como https://<workspace-url>/login/oauth/azure.html.
  5. Clique em Registrar .
  6. Na caixa Essentials , copie e armazene o ID do aplicativo (cliente) . Você usará esse valor para configurar o aplicativo.
  7. Clique em Certificates & secrets .
  8. Em Client secrets (Segredos do cliente ) tab, clique em New client secret (Novo segredo do cliente ).
  9. Digite uma descrição para o segredo e uma expiração (a configuração default é de 180 dias).
  10. Clique em Adicionar .
  11. Copie o valor gerado para o segredo do cliente.
  12. Clique em Permissões de API .
  13. Clique em Adicionar uma permissão .
  14. Selecione Banco de dados SQL do Azure e clique em user_impersonation em Permissões delegadas .
  15. Clique em Adicionar permissões .

Crie uma conexão

A conexão especifica um caminho e as credenciais para acessar um sistema de banco de dados externo. Para criar uma conexão, você pode usar o Catalog Explorer ou o comando CREATE CONNECTION do SQL em um Notebook do Databricks ou no editor de consultas SQL do Databricks.

nota

O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar uma conexão. Veja POST /api/2.1/unity-catalog/connections e Unity Catalog comando.

Permissões necessárias: Administrador do Metastore ou usuário com o privilégio CREATE CONNECTION.

  1. In your Databricks workspace, click Catalog icon Catalog.

  2. At the top of the Catalog pane, click the Add or plus icon Add icon and select Add a connection from the menu.

    Alternatively, from the Quick access page, click the External data button, go to the Connections tab, and click Create connection.

  3. On the Connection basics page of the Set up connection wizard, enter a user-friendly Connection name.

  4. Select a Connection type of SQL Server.

  5. Select an Auth type of OAuth or Username and password (basic authentication).

  6. (Optional) Add a comment.

  7. Click Next.

  8. On the Authentication page, enter the following connection properties for your SQL Server instance. Properties that are specific to the authentication method you selected are preceded by the Auth type in parentheses.

    • Host: Your SQL server.
    • (Basic authentication) Port
    • (Basic authentication) trustServerCertificate: Defaults to false. When set to true, the transport layer uses SSL to encrypt the channel and bypasses the certificate chain to validate trust. Leave this set to the default unless you have a specific need to bypass trust validation.
    • (Basic authentication) User
    • (Basic authentication) Password
    • (OAuth) Authorization Endpoint: Your Azure Entra authorization endpoint in the format https://login.microsoftonline.com/<tenant-id>/oauth2/v2.0/authorize.
    • (OAuth) Client ID from the app you created.
    • (OAuth) Client secret from the client secret you created.
    • (OAuth) OAuth scope: Enter the following value with no modifications: https://database.windows.net/.default offline_access.
    • (OAuth) Click Sign in with Azure Entra ID. Enter your Azure username and password. After you’re redirected to the Authentication page, the authorization code is populated in the UI.
  9. Click Create connection.

  10. (Basic authentication) On the Connection details page, specify the following:

    • Trust server certificate: This is deselected by default. When selected, the transport layer uses SSL to encrypt the channel and bypasses the certificate chain to validate trust. Leave this set to the default unless you have a specific need to bypass trust validation.
    • Application intent: The application workload type when connecting to a server.
  11. Click Next.

  12. On the Catalog basics page, enter a name for the foreign catalog. A foreign catalog mirrors a database in an external data system so that you can query and manage access to data in that database using Databricks and Unity Catalog.

  13. (Optional) Click Test connection to confirm that it works.

  14. Click Create catalog.

  15. On the Access page, select the workspaces in which users can access the catalog you created. You can select All workspaces have access, or click Assign to workspaces, select the workspaces, and then click Assign.

  16. Change the Owner who will be able to manage access to all objects in the catalog. Start typing a principal in the text box, and then click the principal in the returned results.

  17. Grant Privileges on the catalog. Click Grant:

    1. Specify the Principals who will have access to objects in the catalog. Start typing a principal in the text box, and then click the principal in the returned results.
    2. Select the Privilege presets to grant to each principal. All account users are granted BROWSE by default.
      • Select Data Reader from the drop-down menu to grant read privileges on objects in the catalog.
      • Select Data Editor from the drop-down menu to grant read and modify privileges on objects in the catalog.
      • Manually select the privileges to grant.
    3. Click Grant.
  18. Click Next.

  19. On the Metadata page, specify tags key-value pairs. For more information, see Apply tags to Unity Catalog securable objects.

  20. (Optional) Add a comment.

  21. Click Save.

nota

(OAuth) The Azure Entra ID OAuth endpoint must be accessible from Databricks control plane IPs. See Databricks clouds and regions.

Crie um catálogo estrangeiro

nota

Se o senhor usar a interface do usuário para criar uma conexão com a fonte de dados, a criação do catálogo externo estará incluída e o senhor poderá ignorar essa etapa.

Um catálogo externo espelha um banco de dados em um sistema de dados externo para você consultar e gerenciar o acesso aos dados nesse banco de dados com Databricks e Unity Catalog. Para criar um catálogo externo, utiliza-se uma conexão com a fonte de dados que já foi definida.

Para criar um catálogo externo, o senhor pode usar o Catalog Explorer ou o comando CREATE FOREIGN CATALOG SQL em um Notebook Databricks ou o editor de consultas SQL. O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar um catálogo. Veja POST /api/2.1/unity-catalog/catalogs e Unity Catalog comando.

Permissões necessárias: permissão CREATE CATALOG na metastore e propriedade da conexão ou o privilégio CREATE FOREIGN CATALOG na conexão.

  1. In your Databricks workspace, click Catalog icon Catalog to open Catalog Explorer.

  2. At the top of the Catalog pane, click the Add or plus icon Add icon and select Add a catalog from the menu.

    Alternatively, from the Quick access page, click the Catalogs button, and then click the Create catalog button.

  3. Follow the instructions for creating foreign catalogs in Create catalogs.

Pushdowns suportados

Os seguintes pushdowns são suportados em todos os sites compute:

  • Filtros
  • Projeções
  • Limite
  • Funções: parciais, somente para expressões de filtro. (funções de cadeias de caracteres, funções matemáticas, funções de dados, tempo e registro de data e hora e outras funções diversas, como Alias, Cast, SortOrder)

Os seguintes pushdowns são suportados em Databricks Runtime 13.3 LTS e acima, e em SQL warehouse compute:

  • Agregados
  • Os seguintes operadores Boolean: =, <, <=, >, >=, <=>
  • As seguintes funções matemáticas (não suportadas se o ANSI estiver desativado): +, -, *,%,/
  • Os seguintes operadores diversos: ^, |, ~
  • Classificação, quando usada com limite

Os seguintes pushdowns não são suportados:

  • unir-se
  • Funções do Windows

Mapeamentos de tipos de dados

Quando o senhor lê do SQL Server para o Spark, os tipos de dados são mapeados da seguinte forma:

Tipo de SQL Server

Spark tipo

bigint (sem sinal), decimal, dinheiro, numérico, dinheiro pequeno

Tipo decimal

diminuindo, tingindo

Tipo curto

int

Tipo de número inteiro

bigint (se assinado)

Tipo longo

real

Tipo de flutuação

Float

Tipo duplo

char, nchar, identificador exclusivo

Tipo de caractere

nvarchar, varchar

Tipo de gráfico VAR

texto, xml

Tipo de string

binário, geografia, geometria, imagem, timestamp, udt, varbinary

Tipo binário

pouco

Tipo booleano

Data

Tipo de data

data e hora, data e hora, pequena data e hora

Tipo de carimbo de data/tipo de carimbo de data/hora NTZ

*Quando o senhor lê em SQL Server, SQL Server datetimes é mapeado para Spark TimestampType se preferTimestampNTZ = false (default). O SQL Server datetimes é mapeado para TimestampNTZType se preferTimestampNTZ = true.