Ler dados compartilhados usando o compartilhamento aberto Delta Sharing com tokens de portador (para destinatários)
Esta página descreve como ler os dados compartilhados com o senhor usando o protocolo de compartilhamento aberto Delta Sharing com tokens de portador. Inclui instruções para a leitura do uso compartilhado de dados das seguintes ferramentas:
- Databricks
- Apache Spark
- Pandas
- Power BI
- Tableau
Nesse modelo de compartilhamento aberto, o senhor usa um arquivo de credenciais, compartilhado com um membro da sua equipe pelo provedor de dados, para obter acesso seguro de leitura aos dados compartilhados. O acesso persiste enquanto a credencial for válida e o provedor continuar compartilhando os dados. Os provedores gerenciam a expiração e a rotação de credenciais. As atualizações dos dados estão disponíveis quase em tempo real. Você pode ler e fazer cópias dos dados compartilhados, mas não pode modificar os dados de origem.
Se os dados tiverem sido compartilhados com o senhor usando o site Databricks-to-Databricks Delta Sharing, o senhor não precisará de um arquivo de credencial para acessar os dados, e este artigo não se aplica ao senhor. Para obter instruções, consulte Ler dados compartilhados usando Databricks-to-Databricks Delta Sharing (para destinatários).
As seções a seguir descrevem como usar Databricks, Apache Spark, Pandas e Power BI para acessar e ler o uso compartilhado de dados do arquivo de credenciais. Para obter uma lista completa dos conectores Delta Sharing e informações sobre como usá-los, consulte a documentação do código abertoDelta Sharing. Se o senhor tiver problemas para acessar os dados compartilhados, entre em contato com o provedor de dados.
Antes de começar
Um membro da sua equipe deve fazer o download do arquivo de credenciais compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Eles devem usar um canal seguro para compartilhar esse arquivo ou local de arquivo com o senhor.
Databricks: Leitura compartilhada uso de dados conectores de compartilhamento aberto
Esta seção descreve como importar um provedor e como consultar os dados compartilhados no Catalog Explorer ou em um notebook Python:
-
Se o seu Databricks workspace estiver habilitado para Unity Catalog, use a interface do usuário do provedor de importação no Catalog Explorer. Você pode fazer o seguinte sem precisar armazenar ou especificar um arquivo de credenciais:
- Crie catálogos a partir de compartilhamentos com o clique de um botão.
- Use os controles de acesso do Unity Catalog para conceder acesso a tabelas compartilhadas.
- A consulta compartilhou o uso de dados da sintaxe padrão do site Unity Catalog.
-
Se o seu Databricks workspace não estiver habilitado para Unity Catalog, use as instruções do Python Notebook como exemplo.
- Catalog Explorer
- Python
Permissões necessárias : Um administrador de metastore ou um usuário que tenha os privilégios CREATE PROVIDER
e USE PROVIDER
para o metastore do Unity Catalog.
-
Em seu site Databricks workspace, clique em
Catalog para abrir o Catalog Explorer.
-
Na parte superior do painel Catálogo , clique no ícone de engrenagem
e selecione Delta Sharing .
Como alternativa, na página de acesso rápido , clique no botão Delta Sharing > .
-
Em Shared with me (Compartilhado comigo) tab, clique em Import data (Importar dados ).
-
Insira o nome do provedor.
O nome não pode incluir espaços.
-
Faça o upload do arquivo de credencial que o provedor compartilhou com o senhor.
Muitos provedores têm suas próprias redes Delta Sharing, das quais o senhor pode receber compartilhamentos. Para obter mais informações, consulte Configurações específicas do provedor.
-
(Opcional) Insira um comentário.
-
Clique em Importar .
-
Crie catálogos a partir dos dados compartilhados.
Em Shares tab, clique em Create catalog (Criar catálogo ) na linha de compartilhamento.
Para obter informações sobre como usar o site SQL ou o Databricks CLI para criar um catálogo a partir de um compartilhamento, consulte Criar um catálogo a partir de um compartilhamento.
-
Conceda acesso aos catálogos.
Consulte Como faço para disponibilizar dados compartilhados para minha equipe? e gerenciar permissões para os esquemas, tabelas e volumes em um catálogo Delta Sharing.
-
Leia os objetos de dados compartilhados da mesma forma que faria com qualquer objeto de dados registrado no Unity Catalog.
Para obter detalhes e exemplos, consulte Acessar dados em uma tabela ou volume compartilhado.
Esta seção descreve como usar um conector de compartilhamento aberto para acessar o uso compartilhado de dados a Notebook em seu Databricks workspace. O senhor ou outro membro da sua equipe armazena o arquivo de credencial em Databricks e o utiliza para se autenticar no site do provedor de dados Databricks account e ler os dados que o provedor de dados compartilhou com o senhor.
Estas instruções pressupõem que o seu Databricks workspace não está habilitado para Unity Catalog. Se o senhor estiver usando o Unity Catalog, não precisará apontar para o arquivo de credenciais ao ler do compartilhamento. O senhor pode ler de tabelas compartilhadas da mesma forma que lê de qualquer tabela registrada no Unity Catalog. A Databricks recomenda que o senhor use a UI do provedor de importação no Catalog Explorer em vez das instruções fornecidas aqui.
Primeiro, use um Notebook Python em Databricks para armazenar o arquivo de credenciais para que os usuários da sua equipe possam acessar os dados compartilhados.
-
Em um editor de texto, abra o arquivo de credencial.
-
Em seu site Databricks workspace, clique em New > Notebook .
- Digite um nome.
- Defina o idioma default para o Notebook como Python.
- Selecione um clustering para anexar ao Notebook.
- Clique em Criar .
O Notebook é aberto no editor de Notebook.
-
Para usar Python ou Pandas para acessar os dados compartilhados, instale o conector delta-compartilhamento Python. No editor do Notebook, cole o seguinte comando:
%sh pip install delta-sharing
-
execução da célula.
A biblioteca
delta-sharing
Python é instalada no clustering se ainda não estiver instalada. -
Em uma nova célula, cole o comando a seguir, que carrega o conteúdo do arquivo de credencial para uma pasta em DBFS.
Substitua as variáveis da seguinte forma:
-
<dbfs-path>
: o caminho para a pasta em que você deseja salvar o arquivo de credencial -
<credential-file-contents>
: o conteúdo do arquivo de credenciais. Esse não é um caminho para o arquivo, mas o conteúdo copiado do arquivo.O arquivo de credencial contém JSON que define três campos:
shareCredentialsVersion
,endpoint
, ebearerToken
.%scala
dbutils.fs.put("<dbfs-path>/config.share","""
<credential-file-contents>
""")
-
-
execução da célula.
Depois que o arquivo de credenciais for carregado, o senhor poderá excluir essa célula. Todos os usuários de workspace podem ler o arquivo de credenciais em DBFS e o arquivo de credenciais está disponível em DBFS em todos os armazéns de clustering e SQL em seu workspace. Para excluir a célula, clique em x no menu de ações da célula
na extremidade direita.
Agora que o arquivo de credenciais está armazenado, o senhor pode usar um Notebook para listar e ler tabelas compartilhadas
-
Usando Python, liste as tabelas no compartilhamento.
Em uma nova célula, cole o seguinte comando. Substitua
<dbfs-path>
pelo caminho que foi criado acima.Quando o código é executado, o site Python lê o arquivo de credenciais do site DBFS no clustering. Acesse os dados armazenados no DBFS no caminho
/dbfs/
.Pythonimport delta_sharing
client = delta_sharing.SharingClient(f"/dbfs/<dbfs-path>/config.share")
client.list_all_tables() -
execução da célula.
O resultado é uma matriz de tabelas, junto com metadados para cada tabela. A saída a seguir mostra duas tabelas:
Out[10]: [Table(name='example_table', share='example_share_0', schema='default'), Table(name='other_example_table', share='example_share_0', schema='default')]
Se a saída estiver vazia ou não contiver as tabelas que você espera, entre em contato com o provedor de dados.
-
Consulte uma tabela compartilhada.
-
Usando Scala :
Em uma nova célula, cole o seguinte comando. Quando o código é executado, o arquivo de credenciais é lido no site DBFS por meio do site JVM.
Substitua as variáveis da seguinte forma:
<profile-path>
: o caminho DBFS do arquivo de credenciais. Por exemplo,/<dbfs-path>/config.share
.<share-name>
: o valor deshare=
para a tabela.<schema-name>
: o valor deschema=
para a tabela.<table-name>
: o valor dename=
para a tabela.
%scala
spark.read.format("deltaSharing")
.load("<profile-path>#<share-name>.<schema-name>.<table-name>").limit(10);execução da célula. Cada vez que você carrega a tabela compartilhada, você vê novos dados da fonte.
-
Usando SQL :
Para consultar o uso de dados SQL, o senhor cria uma tabela local no workspace a partir da tabela compartilhada e, em seguida, consulta a tabela local. Os dados compartilhados não são armazenados nem armazenados em cache na tabela local. Sempre que você consulta a tabela local, você vê o estado atual dos dados compartilhados.
Em uma nova célula, cole o seguinte comando.
Substitua as variáveis da seguinte forma:
<local-table-name>
: o nome da tabela local.<profile-path>
: a localização do arquivo de credenciais.<share-name>
: o valor deshare=
para a tabela.<schema-name>
: o valor deschema=
para a tabela.<table-name>
: o valor dename=
para a tabela.
%sql
DROP TABLE IF EXISTS table_name;
CREATE TABLE <local-table-name> USING deltaSharing LOCATION "<profile-path>#<share-name>.<schema-name>.<table-name>";
SELECT * FROM <local-table-name> LIMIT 10;Quando o senhor executa o comando, os dados compartilhados são consultados diretamente. Como teste, a tabela é consultada e os 10 primeiros resultados são retornados.
Se a saída estiver vazia ou não contiver os dados esperados, entre em contato com o provedor de dados.
-
Apache Spark: Ler dados compartilhados
Siga estes passos para acessar o uso compartilhado de dados Spark 3.x ouacima.
Essas instruções pressupõem que você tenha acesso ao arquivo de credenciais que foi compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Se estiver usando Spark em um Databricks workspace que esteja habilitado para Unity Catalog e tiver usado a interface do usuário do provedor de importação para importar o provedor e compartilhar, as instruções desta seção não se aplicam a você. O senhor pode acessar as tabelas compartilhadas da mesma forma que qualquer outra tabela registrada no Unity Catalog. O senhor não precisa instalar o conector delta-sharing
Python nem fornecer o caminho para o arquivo de credenciais. Consulte:Databricks Leia os conectores de uso compartilhado de dados de compartilhamento aberto.
Instale os conectores Delta Sharing Python e Spark
Para acessar metadados relacionados aos dados compartilhados, como a lista de tabelas compartilhadas com você, faça o seguinte. Este exemplo usa Python.
-
Instale o conector Python de compartilhamento delta:
Bashpip install delta-sharing
-
Instale o conector do Apache Spark.
Listar tabelas compartilhadas usando o Spark
Liste as tabelas no compartilhamento. No exemplo a seguir, substitua <profile-path>
pela localização do arquivo de credencial.
import delta_sharing
client = delta_sharing.SharingClient(f"<profile-path>/config.share")
client.list_all_tables()
O resultado é uma matriz de tabelas, junto com metadados para cada tabela. A saída a seguir mostra duas tabelas:
Out[10]: [Table(name='example_table', share='example_share_0', schema='default'), Table(name='other_example_table', share='example_share_0', schema='default')]
Se a saída estiver vazia ou não contiver as tabelas que você espera, entre em contato com o provedor de dados.
Acesso compartilhado uso de dados Spark
Execute o seguinte, substituindo essas variáveis:
<profile-path>
: a localização do arquivo de credenciais.<share-name>
: o valor deshare=
para a tabela.<schema-name>
: o valor deschema=
para a tabela.<table-name>
: o valor dename=
para a tabela.<version-as-of>
: opcional. A versão da tabela para carregar os dados. Só funciona se o provedor de dados compartilhar a história da tabela. Requerdelta-sharing-spark
0.5.0 ouacima.<timestamp-as-of>
: opcional. Carregue os dados na versão anterior ou no carimbo de data/hora fornecido. Só funciona se o provedor de dados compartilhar a história da tabela. Requerdelta-sharing-spark
0.6.0 ouacima.
- Python
- Scala
delta_sharing.load_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>", version=<version-as-of>)
spark.read.format("deltaSharing")\
.option("versionAsOf", <version-as-of>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")\
.limit(10))
delta_sharing.load_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>", timestamp=<timestamp-as-of>)
spark.read.format("deltaSharing")\
.option("timestampAsOf", <timestamp-as-of>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")\
.limit(10))
Execute o seguinte, substituindo essas variáveis:
<profile-path>
: a localização do arquivo de credenciais.<share-name>
: o valor deshare=
para a tabela.<schema-name>
: o valor deschema=
para a tabela.<table-name>
: o valor dename=
para a tabela.<version-as-of>
: opcional. A versão da tabela para carregar os dados. Só funciona se o provedor de dados compartilhar a história da tabela. Requerdelta-sharing-spark
0.5.0 ouacima.<timestamp-as-of>
: opcional. Carregue os dados na versão anterior ou no carimbo de data/hora fornecido. Só funciona se o provedor de dados compartilhar a história da tabela. Requerdelta-sharing-spark
0.6.0 ouacima.
spark.read.format("deltaSharing")
.option("versionAsOf", <version-as-of>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
.limit(10)
spark.read.format("deltaSharing")
.option("timestampAsOf", <version-as-of>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
.limit(10)
Acesse o feed de dados de alterações compartilhadas usando o Spark
Se a história da tabela foi compartilhada com você e o feed de dados alterados (CDF) está ativado na tabela de origem, você pode acessar o feed de dados alterados executando o seguinte, substituindo essas variáveis. Requer delta-sharing-spark
0.5.0 ouacima.
Um e somente um parâmetro de início deve ser fornecido.
<profile-path>
: a localização do arquivo de credenciais.<share-name>
: o valor deshare=
para a tabela.<schema-name>
: o valor deschema=
para a tabela.<table-name>
: o valor dename=
para a tabela.<starting-version>
: opcional. A versão inicial da consulta, inclusive. Especifique como longo.<ending-version>
: opcional. A versão final da consulta, inclusive. Se a versão final não for fornecida, a API usará a versão mais recente da tabela.<starting-timestamp>
: opcional. O carimbo de data/hora inicial da consulta, é convertido em uma versão criada maior ou igual a esse carimbo de data/hora. Especifique como uma cadeia de caracteres no formatoyyyy-mm-dd hh:mm:ss[.fffffffff]
.<ending-timestamp>
: opcional. O carimbo de data/hora final da consulta, é convertido em uma versão criada anteriormente ou igual a esse carimbo de data/hora. Especifique como uma cadeia de caracteres no formatoyyyy-mm-dd hh:mm:ss[.fffffffff]
- Python
- Scala
delta_sharing.load_table_changes_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>",
starting_version=<starting-version>,
ending_version=<ending-version>)
delta_sharing.load_table_changes_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>",
starting_timestamp=<starting-timestamp>,
ending_timestamp=<ending-timestamp>)
spark.read.format("deltaSharing").option("readChangeFeed", "true")\
.option("statingVersion", <starting-version>)\
.option("endingVersion", <ending-version>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
spark.read.format("deltaSharing").option("readChangeFeed", "true")\
.option("startingTimestamp", <starting-timestamp>)\
.option("endingTimestamp", <ending-timestamp>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
spark.read.format("deltaSharing").option("readChangeFeed", "true")
.option("statingVersion", <starting-version>)
.option("endingVersion", <ending-version>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
spark.read.format("deltaSharing").option("readChangeFeed", "true")
.option("startingTimestamp", <starting-timestamp>)
.option("endingTimestamp", <ending-timestamp>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
Se a saída estiver vazia ou não contiver os dados esperados, entre em contato com o provedor de dados.
Acessar uma tabela compartilhada usando Spark transmissão estructurada
Se a história da tabela for compartilhada com você, você poderá ler os dados compartilhados por transmissão. Requer delta-sharing-spark
0.6.0 ouacima.
Opções suportadas:
ignoreDeletes
: ignore as transações que excluem dados.ignoreChanges
: Processe novamente as atualizações se os arquivos foram reescritos na tabela de origem devido a operações de alteração de dados, comoUPDATE
,MERGE INTO
,DELETE
(dentro de partições) ouOVERWRITE
. As linhas inalteradas ainda podem ser emitidas. Portanto, seus consumidores posteriores devem ser capazes de lidar com duplicatas. As exclusões não são propagadas a jusante.ignoreChanges
incluiignoreDeletes
. Portanto, se o senhor usarignoreChanges
, sua transmissão não será interrompida por exclusões ou atualizações na tabela de origem.startingVersion
: A versão da tabela compartilhada a partir da qual o senhor deve começar. Todas as alterações na tabela a partir dessa versão (inclusive) serão lidas pela fonte de transmissão.startingTimestamp
: O registro de data e hora para começar. Todas as alterações de tabela confirmadas no registro de data e hora ou após esse registro (inclusive) serão lidas pela fonte de transmissão. Exemplo:"2023-01-01 00:00:00.0"
.maxFilesPerTrigger
: O número de novos arquivos a serem considerados em cada micro-lote.maxBytesPerTrigger
: A quantidade de dados que é processada em cada micro-lote. Essa opção define um "soft max", o que significa que um lote processa aproximadamente essa quantidade de dados e pode processar mais do que o limite para fazer com que a consulta de transmissão avance nos casos em que a menor unidade de entrada for maior do que esse limite.readChangeFeed
Transmissão: lê o feed de dados de alteração da tabela compartilhada.
Opções não suportadas:
Trigger.availableNow
Exemplo de consultas de transmissão estruturada
- Scala
- Python
spark.readStream.format("deltaSharing")
.option("startingVersion", 0)
.option("ignoreChanges", true)
.option("maxFilesPerTrigger", 10)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
spark.readStream.format("deltaSharing")\
.option("startingVersion", 0)\
.option("ignoreDeletes", true)\
.option("maxBytesPerTrigger", 10000)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
Veja também os conceitos de transmissão estruturada.
Leia tabelas com vetores de exclusão ou mapeamento de colunas habilitados
Visualização
Esse recurso está em Public Preview.
Os vetores de exclusão são um recurso de otimização de armazenamento que seu provedor pode ativar em tabelas Delta compartilhadas. Consulte O que são vetores de exclusão? .
O Databricks também oferece suporte ao mapeamento de colunas para tabelas Delta. Consulte Renomear e soltar colunas com o mapeamento de colunas do Delta Lake.
Se o provedor compartilhou uma tabela com vetores de exclusão ou mapeamento de coluna ativado, o senhor pode ler a tabela usando compute que esteja executando delta-sharing-spark
3.1 ou acima. Se estiver usando o clustering Databricks, o senhor pode realizar leituras de lotes usando um clustering que esteja executando o Databricks Runtime 14.1 ou o acima. As consultas de CDF e transmissão exigem o site Databricks Runtime 14.2 ou superior.
O senhor pode realizar muitas consultas como estão, porque elas podem resolver automaticamente responseFormat
com base no recurso de tabela da tabela compartilhada.
Para ler um feed de dados de alteração (CDF) ou para realizar consultas de transmissão em tabelas compartilhadas com vetores de exclusão ou mapeamento de coluna ativados, o senhor deve definir a opção adicional responseFormat=delta
.
Os exemplos a seguir mostram consultas de lotes, CDF e transmissão:
import org.apache.spark.sql.SparkSession
val spark = SparkSession
.builder()
.appName("...")
.master("...")
.config("spark.sql.extensions", "io.delta.sql.DeltaSparkSessionExtension")
.config("spark.sql.catalog.spark_catalog", "org.apache.spark.sql.delta.catalog.DeltaCatalog")
.getOrCreate()
val tablePath = "<profile-file-path>#<share-name>.<schema-name>.<table-name>"
// Batch query
spark.read.format("deltaSharing").load(tablePath)
// CDF query
spark.read.format("deltaSharing")
.option("readChangeFeed", "true")
.option("responseFormat", "delta")
.option("startingVersion", 1)
.load(tablePath)
// Streaming query
spark.readStream.format("deltaSharing").option("responseFormat", "delta").load(tablePath)
Pandas: Ler dados compartilhados
Siga estes passos para acessar dados compartilhados em pandas 0.25.3 ouacima.
Essas instruções pressupõem que você tenha acesso ao arquivo de credenciais que foi compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Se estiver usando Pandas em um Databricks workspace que esteja habilitado para Unity Catalog e tiver usado a interface do usuário do provedor de importação para importar o provedor e compartilhar, as instruções desta seção não se aplicam a você. O senhor pode acessar as tabelas compartilhadas da mesma forma que qualquer outra tabela registrada no Unity Catalog. O senhor não precisa instalar o conector delta-sharing
Python nem fornecer o caminho para o arquivo de credenciais. Consulte:Databricks Leia os conectores de uso compartilhado de dados de compartilhamento aberto.
Instale o conector Python do Delta Sharing
Para acessar os metadados relacionados aos dados compartilhados, como a lista de tabelas compartilhadas com o senhor, é necessário instalar o conector Python de compartilhamento delta.
pip install delta-sharing
Listar tabelas compartilhadas usando Pandas
Para listar as tabelas no compartilhamento, execute o seguinte, substituindo <profile-path>/config.share
pelo local do arquivo de credenciais.
import delta_sharing
client = delta_sharing.SharingClient(f"<profile-path>/config.share")
client.list_all_tables()
Se a saída estiver vazia ou não contiver as tabelas que você espera, entre em contato com o provedor de dados.
Acesso compartilhado uso de dados Pandas
Para acessar dados compartilhados em Pandas usando Python, execute o seguinte, substituindo as variáveis da seguinte forma:
<profile-path>
: a localização do arquivo de credenciais.<share-name>
: o valor deshare=
para a tabela.<schema-name>
: o valor deschema=
para a tabela.<table-name>
: o valor dename=
para a tabela.
import delta_sharing
delta_sharing.load_as_pandas(f"<profile-path>#<share-name>.<schema-name>.<table-name>")
Acesse um feed de dados de alterações compartilhadas usando Pandas
Para acessar o feed de dados de alteração de uma tabela compartilhada em Pandas usando Python, execute o seguinte, substituindo as variáveis da seguinte forma. Um feed de dados de alteração pode não estar disponível, dependendo se o provedor de dados compartilhou ou não o feed de dados de alteração da tabela.
<starting-version>
: opcional. A versão inicial da consulta, inclusive.<ending-version>
: opcional. A versão final da consulta, inclusive.<starting-timestamp>
: opcional. A data e hora de início da consulta. Isso é convertido em uma versão criada maior ou igual a esse carimbo de data/hora.<ending-timestamp>
: opcional. O carimbo de data/hora final da consulta. Isso é convertido em uma versão criada anteriormente ou igual a esse carimbo de data/hora.
import delta_sharing
delta_sharing.load_table_changes_as_pandas(
f"<profile-path>#<share-name>.<schema-name>.<table-name>",
starting_version=<starting-version>,
ending_version=<starting-version>)
delta_sharing.load_table_changes_as_pandas(
f"<profile-path>#<share-name>.<schema-name>.<table-name>",
starting_timestamp=<starting-timestamp>,
ending_timestamp=<ending-timestamp>)
Se a saída estiver vazia ou não contiver os dados esperados, entre em contato com o provedor de dados.
Power BI: ler dados compartilhados
O conector Power BI Delta Sharing permite que o senhor descubra, analise e visualize o conjunto de dados compartilhado com o senhor por meio do protocolo aberto Delta Sharing.
Requisitos
- Power BI Desktop 2.99.621.0 ouacima.
- Acesso ao arquivo de credenciais que foi compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Conectar-se ao Databricks
Para se conectar ao Databricks usando o conector Delta Sharing, faça o seguinte:
- Abra o arquivo de credencial compartilhada com um editor de texto para recuperar o URL endpoint e os tokens.
- Abra o Power BI Desktop.
- No menu Get Data (Obter dados ), procure por Delta Sharing .
- Selecione o conector e clique em Conectar .
- Digite o URL do endpoint que o senhor copiou do arquivo de credenciais no campo URL do Delta Sharing Server .
- Opcionalmente, em Advanced Options tab, defina um Row Limit para o número máximo de linhas que o senhor pode download. Isso é definido como 1 milhão de linhas em default.
- Clique em OK .
- Para Authentication (Autenticação ), copie os tokens que o senhor recuperou do arquivo de credenciais para Bearer tokens (Tokens do portador ).
- Clique em Conectar .
Limitações do conector Power BI Delta Sharing
O conector Power BI Delta Sharing tem as seguintes limitações:
- Os dados que o conector carrega devem caber na memória da sua máquina. Para gerenciar esse requisito, o conector limita o número de linhas importadas ao Limite de linhas que o senhor define nas Opções avançadas tab em Power BI Desktop.
Tableau: Ler dados compartilhados
O conector Tableau Delta Sharing permite que o senhor descubra, analise e visualize conjuntos de dados compartilhados com o senhor por meio do protocolo aberto Delta Sharing.
Requisitos
- Tableau Desktop e Tableau Server 2024.1 ou acima
- Acesso ao arquivo de credenciais que foi compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Conectar-se ao Databricks
Para se conectar ao Databricks usando o conector Delta Sharing, faça o seguinte:
- Acesse Tableau Exchange, siga as instruções para download o conector Delta Sharing e coloque-o em uma pasta apropriada da área de trabalho.
- Abra o Tableau Desktop.
- Na página Connectors (Conectores ), procure por "Delta Sharing by Databricks".
- Selecione carregar arquivo de compartilhamento e escolha o arquivo de credencial que foi compartilhado pelo provedor.
- Clique em Obter dados .
- No Data Explorer, selecione a tabela.
- Opcionalmente, adicione filtros SQL ou limites de linha.
- Clique em Obter dados da tabela .
Limitações do conector Tableau Delta Sharing
O conector Tableau Delta Sharing tem as seguintes limitações:
- Os dados que o conector carrega devem caber na memória da sua máquina. Para gerenciar esse requisito, o conector limita o número de linhas importadas ao limite de linhas que o senhor definiu no Tableau.
- Todas as colunas são retornadas como tipo
String
. - O SQL Filter só funciona se o seu servidor Delta Sharing suportar predicateHint.
- Os vetores de exclusão não são suportados.
Solicite uma nova credencial
Se o URL de ativação da credencial ou a credencial de downloads for perdida, corrompida ou comprometida, ou se a credencial expirar sem que o provedor envie uma nova, entre em contato com o provedor para solicitar uma nova credencial.