Pular para o conteúdo principal

execução de consultas federadas em Amazon Redshift

Este artigo descreve como configurar a Lakehouse Federation para executar consultas federadas na execução de consultas em Amazon Redshift dados que não são gerenciados por Databricks. Para saber mais sobre a lakehouse Federation, consulte O que é a lakehouse Federation?

Para se conectar às suas consultas de execução no banco de dados Amazon Redshift usando a Lakehouse Federation, o senhor deve criar o seguinte no seu metastore Databricks Unity Catalog :

  • Uma conexão para suas consultas de execução no banco de dados Amazon Redshift .
  • Um catálogo externo que espelha suas consultas de execução no banco de dados Amazon Redshift em Unity Catalog para que o senhor possa usar a sintaxe de consulta Unity Catalog e as ferramentas de governança de dados para gerenciar o acesso do usuário Databricks ao banco de dados.

Antes de começar

Requisitos do workspace:

  • Espaço de trabalho preparado para o Catálogo do Unity.

Requisitos de computação:

  • Conectividade de rede do seu recurso compute para os sistemas de banco de dados de destino. Veja as recomendações do Networking para a Lakehouse Federation.
  • Databricks compute O senhor deve usar Databricks Runtime 13.3 LTS ou acima e o modo de acesso Standard ou Dedicated .
  • Os SQL warehouse devem ser Pro ou Serverless e devem utilizar a versão 2023.40 ou superior.

Permissões necessárias:

  • Para criar uma conexão, é preciso ser administrador de metastore ou usuário com o privilégio CREATE CONNECTION no metastore do Unity Catalog anexado ao espaço de trabalho.
  • Para criar um catálogo externo é preciso ter a permissão CREATE CATALOG no metastore e ser proprietário da conexão ou ter o privilégio CREATE FOREIGN CATALOG na conexão.

Outros requisitos de permissão são definidos em cada seção baseada em tarefa a seguir.

Crie uma conexão

A conexão especifica um caminho e as credenciais para acessar um sistema de banco de dados externo. Para criar uma conexão, você pode usar o Catalog Explorer ou o comando CREATE CONNECTION do SQL em um Notebook do Databricks ou no editor de consultas SQL do Databricks.

nota

O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar uma conexão. Veja POST /api/2.1/unity-catalog/connections e Unity Catalog comando.

Permissões necessárias: Administrador do Metastore ou usuário com o privilégio CREATE CONNECTION.

  1. In your Databricks workspace, click Catalog icon Catalog.

  2. At the top of the Catalog pane, click the Add or plus icon Add icon and select Add a connection from the menu.

    Alternatively, from the Quick access page, click the External data > button, go to the Connections tab, and click Create connection.

  3. On the Connection details page of the Set up connection wizard, enter a user-friendly Connection name.

  4. Select a Connection type of Redshift.

  5. (Optional) Add a comment.

  6. Click Next.

  7. On the Authentication page, enter the following connection properties for your Redshift instance.

    • Host: For example, redshift-demo.us-west-2.redshift.amazonaws.com
    • Port: For example, 5439
    • User: For example, redshift_user
    • Password: For example, password123
  8. (Optional) Disable SSL hostname verification.

  9. Click Create connection.

  10. On the Catalog basics page, enter a name for the foreign catalog. A foreign catalog mirrors a database in an external data system so that you can query and manage access to data in that database using Databricks and Unity Catalog.

  11. (Optional) Click Test connection to confirm that it works.

  12. Click Create catalog.

  13. On the Access page, select the workspaces in which users can access the catalog you created. You can select All workspaces have access, or click Assign to workspaces, select the workspaces, and then click Assign.

  14. Change the Owner who will be able to manage access to all objects in the catalog. Start typing a principal in the text box, and then click the principal in the returned results.

  15. Grant Privileges on the catalog. Click Grant:

    1. Specify the Principals who will have access to objects in the catalog. Start typing a principal in the text box, and then click the principal in the returned results.
    2. Select the Privilege presets to grant to each principal. All account users are granted BROWSE by default.
      • Select Data Reader from the drop-down menu to grant read privileges on objects in the catalog.
      • Select Data Editor from the drop-down menu to grant read and modify privileges on objects in the catalog.
      • Manually select the privileges to grant.
    3. Click Grant.
  16. Click Next.

  17. On the Metadata page, specify tags key-value pairs. For more information, see Apply tags to Unity Catalog securable objects.

  18. (Optional) Add a comment.

  19. Click Save.

Crie um catálogo estrangeiro

nota

Se o senhor usar a interface do usuário para criar uma conexão com a fonte de dados, a criação do catálogo externo estará incluída e o senhor poderá ignorar essa etapa.

Um catálogo externo espelha um banco de dados em um sistema de dados externo para você consultar e gerenciar o acesso aos dados nesse banco de dados com Databricks e Unity Catalog. Para criar um catálogo externo, utiliza-se uma conexão com a fonte de dados que já foi definida.

Para criar um catálogo externo, o senhor pode usar o Catalog Explorer ou o comando CREATE FOREIGN CATALOG SQL em um Notebook Databricks ou o editor de consultas SQL. O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar um catálogo. Veja POST /api/2.1/unity-catalog/catalogs e Unity Catalog comando.

Permissões necessárias: permissão CREATE CATALOG na metastore e propriedade da conexão ou o privilégio CREATE FOREIGN CATALOG na conexão.

  1. In your Databricks workspace, click Catalog icon Catalog to open Catalog Explorer.

  2. At the top of the Catalog pane, click the Add or plus icon Add icon and select Add a catalog from the menu.

    Alternatively, from the Quick access page, click the Catalogs button, and then click the Create catalog button.

  3. Follow the instructions for creating foreign catalogs in Create catalogs.

Pushdowns suportados

Os seguintes pushdowns são suportados:

  • Filtros
  • Projeções
  • Limite
  • unir-se
  • Agregados (média, contagem, máximo, mínimo, stdDevPop, stdDevSamp, Sum, VarianceSamp)
  • Funções (funções de cadeias de caracteres e outras funções diversas, como Alias, Cast, SortOrder)
  • Classificação

Os seguintes pushdowns não são suportados:

  • Funções do Windows

Mapeamentos de tipos de dados

Quando o senhor lê do Redshift para o Spark, os tipos de dados são mapeados da seguinte forma:

Tipo de Redshift

Spark tipo

numérica

Tipo decimal

int2, int4

Tipo de número inteiro

int8, oid, xid

Tipo longo

flutuar 4

Tipo de flutuação

precisão dupla, float8, dinheiro

Tipo duplo

bpchar, char, variação de caracteres, nome, super, texto, tid, varchar

Tipo de string

byte, geometria, varbyte

Tipo binário

um pouco, livro

Tipo booleano

Data

Tipo de data

tabstime, hora, hora com fuso horário, timetz, hora sem fuso horário, timestamp com fuso horário, timestamp, timestamptz, timestamp sem fuso horário*

Tipo de carimbo de data/tipo de carimbo de data/hora NTZ

*Quando o senhor lê em Redshift, Redshift Timestamp é mapeado para Spark TimestampType se infer_timestamp_ntz_type = false (default). O Redshift Timestamp é mapeado para TimestampNTZType se infer_timestamp_ntz_type = true.