Pular para o conteúdo principal

execução de consultas federadas sobre PostgreSQL

Este artigo descreve como configurar a Lakehouse Federation para executar consultas federadas na execução de consultas em dados PostgreSQL que não são gerenciados por Databricks. Para saber mais sobre a lakehouse Federation, consulte O que é a lakehouse Federation?

Para se conectar às suas consultas de execução no banco de dados PostgreSQL usando a Lakehouse Federation, o senhor deve criar o seguinte no metastore Databricks Unity Catalog :

  • Uma conexão para suas consultas de execução no banco de dados PostgreSQL.
  • Um catálogo externo que espelha suas consultas de execução no banco de dados PostgreSQL em Unity Catalog para que o senhor possa usar a sintaxe de consulta Unity Catalog e as ferramentas de governança de dados para gerenciar o acesso do usuário Databricks ao banco de dados.

Antes de começar

Requisitos do workspace:

  • Espaço de trabalho preparado para o Catálogo do Unity.

Requisitos de computação:

  • Conectividade de rede do seu recurso compute para os sistemas de banco de dados de destino. Veja as recomendações do Networking para a Lakehouse Federation.
  • Databricks compute O senhor deve usar Databricks Runtime 13.3 LTS ou acima e o modo de acesso Standard ou Dedicated .
  • Os SQL warehouse devem ser Pro ou Serverless e devem utilizar a versão 2023.40 ou superior.

Permissões necessárias:

  • Para criar uma conexão, é preciso ser administrador de metastore ou usuário com o privilégio CREATE CONNECTION no metastore do Unity Catalog anexado ao espaço de trabalho.
  • Para criar um catálogo externo é preciso ter a permissão CREATE CATALOG no metastore e ser proprietário da conexão ou ter o privilégio CREATE FOREIGN CATALOG na conexão.

Outros requisitos de permissão são definidos em cada seção baseada em tarefa a seguir.

Crie uma conexão

A conexão especifica um caminho e as credenciais para acessar um sistema de banco de dados externo. Para criar uma conexão, você pode usar o Catalog Explorer ou o comando CREATE CONNECTION do SQL em um Notebook do Databricks ou no editor de consultas SQL do Databricks.

nota

O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar uma conexão. Veja POST /api/2.1/unity-catalog/connections e Unity Catalog comando.

Permissões necessárias: Administrador do Metastore ou usuário com o privilégio CREATE CONNECTION.

  1. In your Databricks workspace, click Catalog icon Catalog.

  2. At the top of the Catalog pane, click the Add or plus icon Add icon and select Add a connection from the menu.

    Alternatively, from the Quick access page, click the External data > button, go to the Connections tab, and click Create connection.

  3. On the Connection basics page of the Set up connection wizard, enter a user-friendly Connection name.

  4. Select a Connection type of PostgreSQL.

  5. (Optional) Add a comment.

  6. Click Next.

  7. On the Authentication page, enter the following connection properties for your PostgreSQL instance.

    • Host: For example, postgres-demo.lb123.us-west-2.rds.amazonaws.com
    • Port: For example, 5432
    • User: For example, postgres_user
    • Password: For example, password123
  8. Click Create connection.

  9. On the Catalog basics page, enter a name for the foreign catalog. A foreign catalog mirrors a database in an external data system so that you can query and manage access to data in that database using Databricks and Unity Catalog.

  10. (Optional) Click Test connection to confirm that it works.

  11. Click Create catalog.

  12. On the Access page, select the workspaces in which users can access the catalog you created. You can select All workspaces have access, or click Assign to workspaces, select the workspaces, and then click Assign.

  13. Change the Owner who will be able to manage access to all objects in the catalog. Start typing a principal in the text box, and then click the principal in the returned results.

  14. Grant Privileges on the catalog. Click Grant:

    1. Specify the Principals who will have access to objects in the catalog. Start typing a principal in the text box, and then click the principal in the returned results.
    2. Select the Privilege presets to grant to each principal. All account users are granted BROWSE by default.
      • Select Data Reader from the drop-down menu to grant read privileges on objects in the catalog.
      • Select Data Editor from the drop-down menu to grant read and modify privileges on objects in the catalog.
      • Manually select the privileges to grant.
    3. Click Grant.
  15. Click Next.

  16. On the Metadata page, specify tags key-value pairs. For more information, see Apply tags to Unity Catalog securable objects.

  17. (Optional) Add a comment.

  18. Click Save.

Crie um catálogo estrangeiro

nota

Se o senhor usar a interface do usuário para criar uma conexão com a fonte de dados, a criação do catálogo externo estará incluída e o senhor poderá ignorar essa etapa.

Um catálogo externo espelha um banco de dados em um sistema de dados externo para você consultar e gerenciar o acesso aos dados nesse banco de dados com Databricks e Unity Catalog. Para criar um catálogo externo, utiliza-se uma conexão com a fonte de dados que já foi definida.

Para criar um catálogo externo, o senhor pode usar o Catalog Explorer ou o comando CREATE FOREIGN CATALOG SQL em um Notebook Databricks ou o editor de consultas SQL. O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar um catálogo. Veja POST /api/2.1/unity-catalog/catalogs e Unity Catalog comando.

Permissões necessárias: permissão CREATE CATALOG na metastore e propriedade da conexão ou o privilégio CREATE FOREIGN CATALOG na conexão.

  1. In your Databricks workspace, click Catalog icon Catalog to open Catalog Explorer.

  2. At the top of the Catalog pane, click the Add or plus icon Add icon and select Add a catalog from the menu.

    Alternatively, from the Quick access page, click the Catalogs button, and then click the Create catalog button.

  3. Follow the instructions for creating foreign catalogs in Create catalogs.

Pushdowns suportados

Os seguintes pushdowns são suportados em todos os sites compute:

  • Filtros
  • Projeções
  • Limite
  • Funções: parciais, somente para expressões de filtro. (funções de cadeias de caracteres, funções matemáticas e outras funções diversas, como Alias, Cast, SortOrder)

Os seguintes pushdowns são suportados em Databricks Runtime 13.3 LTS e acima, e em SQL warehouse:

  • As seguintes funções de agregação: MIN, MAX, COUNT, SUM, AVG, VAR_POP, VAR_SAMP, STDDEV_POP, STDDEV_SAMP, GREATEST, LEAST, COVAR_POP, COVAR_SAMP, CORR, REGR_INTERCEPT, REGR_R2, REGR_SLOPE, REGR_SXY
  • As seguintes funções Boolean: =, <, <, =>, >=, <=>
  • As seguintes funções matemáticas (não suportadas se o ANSI estiver desativado): +, -, *,%,/
  • Operadores diversos | e ~
  • Classificação, quando usada com limite

Os seguintes pushdowns não são suportados:

  • unir-se
  • Funções do Windows

Mapeamentos de tipos de dados

Quando o senhor lê do PostgreSQL para o Spark, os tipos de dados são mapeados da seguinte forma:

Tipo de PostgreSQL

Spark tipo

numérica

Tipo decimal

int2

Tipo curto

int4 (se não for assinado)

Tipo de número inteiro

int8, oid, xid, int4 (se assinado)

Tipo longo

flutuar 4

Tipo de flutuação

precisão dupla, float8

Tipo duplo

carbonizar

Tipo de caractere

nome, varchar, hora

Tipo de gráfico VAR

bpchar, character varying, JSON, money, point, super, text

Tipo de string

byte, geometria, varbyte

Tipo binário

um pouco, livro

Tipo booleano

Data

Tipo de data

tabstime, hora, hora com fuso horário, timetz, hora sem fuso horário, timestamp com fuso horário, timestamp, timestamptz, timestamp sem fuso horário*

Tipo de carimbo de data/tipo de carimbo de data/hora NTZ

Tipo de matriz PostgreSQL**

Tipo de matriz

*Quando o senhor lê do Postgresql, Postgresql Timestamp é mapeado para Spark TimestampType se preferTimestampNTZ = false (default). O Postgresql Timestamp é mapeado para TimestampNTZType se preferTimestampNTZ = true.

**Há suporte para tipos limitados de matrizes.