Leia os dados compartilhados usando o compartilhamento aberto do Delta Sharing (para destinatários)
Este artigo descreve como ler os dados que foram Delta Sharing compartilhados com o senhor usando o protocolo de compartilhamento aberto. Inclui instruções para a leitura do uso compartilhado de dados Databricks, Apache Spark, Pandas, Power BI, e Tableau.
No compartilhamento aberto, o senhor usa um arquivo de credencial que foi compartilhado com um membro da sua equipe pelo provedor de dados para obter acesso seguro de leitura aos dados compartilhados. O acesso persiste enquanto a credencial for válida e o provedor continuar compartilhando os dados. Os provedores gerenciam a expiração e a rotação de credenciais. As atualizações dos dados estão disponíveis para o senhor quase em tempo real. Você pode ler e fazer cópias dos dados compartilhados, mas não pode modificar os dados de origem.
Se os dados tiverem sido compartilhados com o senhor usando o site Databricks-to-Databricks Delta Sharing, o senhor não precisará de um arquivo de credencial para acessar os dados, e este artigo não se aplica ao senhor. Para obter instruções, consulte Ler dados compartilhados usando Databricks-to-Databricks Delta Sharing (para destinatários).
As seções a seguir descrevem como usar Databricks, Apache Spark, Pandas e Power BI para acessar e ler o uso compartilhado de dados do arquivo de credenciais. Para obter uma lista completa dos conectores Delta Sharing e informações sobre como usá-los, consulte a documentação do código abertoDelta Sharing. Se o senhor tiver problemas para acessar os dados compartilhados, entre em contato com o provedor de dados.
As integrações de parceiros são, salvo indicação em contrário, fornecidas por terceiros e o senhor deve ter um account com o provedor apropriado para o uso de seu produto e serviço. Embora a Databricks faça o possível para manter esse conteúdo atualizado, não fazemos nenhuma declaração em relação às integrações ou à precisão do conteúdo das páginas de integração de parceiros. Entre em contato com os fornecedores apropriados em relação às integrações.
Antes de começar
Um membro da sua equipe deve fazer o download do arquivo de credenciais compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Eles devem usar um canal seguro para compartilhar esse arquivo ou local de arquivo com o senhor.
Databricks: Leitura compartilhada uso de dados conectores de compartilhamento aberto
Esta seção descreve como importar um provedor e como consultar os dados compartilhados no Catalog Explorer ou em um notebook Python:
- Se o seu Databricks workspace estiver habilitado para Unity Catalog, use a interface do usuário do provedor de importação no Catalog Explorer. Isso permite criar catálogos a partir de compartilhamentos com o clique de um botão, usar controles de acesso do Unity Catalog para conceder acesso a tabelas compartilhadas e usar a sintaxe padrão do Unity Catalog para consultar esses compartilhamentos, sem a necessidade de armazenar um arquivo de credenciais ou especificá-lo ao consultar dados compartilhados.
- Se o seu Databricks workspace não estiver habilitado para Unity Catalog, use as instruções do Python Notebook como exemplo. As instruções do Notebook também descrevem como usar o Notebook para listar e ler tabelas compartilhadas.
Se o provedor de dados estiver usando o Databricks-to-Databricks compartilhamento, ele não precisará compartilhar um arquivo de credencial com o senhor, e as instruções deste artigo não se aplicam a ele. Em vez disso, consulte Ler dados compartilhados usando Databricks-to-Databricks Delta Sharing (para destinatários).
- Catalog Explorer
- Python
Permissions required: A metastore admin or a user who has both the CREATE PROVIDER
and USE PROVIDER
privileges for your Unity Catalog metastore.
-
In your Databricks workspace, click
Catalog to open Catalog Explorer.
-
At the top of the Catalog pane, click the
gear icon and select Delta Sharing.
Alternatively, from the Quick access page, click the Delta Sharing > button.
-
On the Shared with me tab, click Import provider directly.
-
On the Import provider dialog, enter the provider name.
The name cannot include spaces.
-
Upload the credential file that the provider shared with you.
Many providers have their own Delta Sharing networks that you can receive shares from. For more information, see Provider-specific configurations.
-
(Optional) Enter a comment.
-
Click Import.
-
Create catalogs from the shared data.
On the Shares tab, click Create catalog on the share row.
For information about using SQL or the Databricks CLI to create a catalog from a share, see Create a catalog from a share.
-
Grant access to the catalogs.
See How do I make shared data available to my team? and Manage permissions for the schemas, tables, and volumes in a Delta Sharing catalog.
-
Read the shared data objects just like you would any data object that is registered in Unity Catalog.
For details and examples, see Access data in a shared table or volume.
This section describes how to use an open sharing connector to access shared data using a notebook in your Databricks workspace. You or another member of your team store the credential file in Databricks, then you use it to authenticate to the data provider’s Databricks account and read the data that the data provider shared with you.
These instructions assume that your Databricks workspace is not enabled for Unity Catalog. If you are using Unity Catalog, you do not need to point to the credential file when you read from the share. You can read from shared tables just like you do from any table registered in Unity Catalog. Databricks recommends that you use the Import provider UI in Catalog Explorer instead of the instructions provided here.
First use a Python notebook in Databricks to store the credential file so that users on your team can access shared data.
-
In a text editor, open the credential file.
-
In your Databricks workspace, click New > Notebook.
- Enter a name.
- Set the default language for the notebook to Python.
- Select a cluster to attach to the notebook.
- Click Create.
The notebook opens in the notebook editor.
-
To use Python or pandas to access the shared data, install the delta-sharing Python connector. In the notebook editor, paste the following command:
%sh pip install delta-sharing
-
Run the cell.
The
delta-sharing
Python library gets installed in the cluster if it isn’t already installed. -
In a new cell, paste the following command, which uploads the contents of the credential file to a folder in DBFS.
Replace the variables as follows:
-
<dbfs-path>
: the path to the folder where you want to save the credential file -
<credential-file-contents>
: the contents of the credential file. This is not a path to the file, but the copied contents of the file.The credential file contains JSON that defines three fields:
shareCredentialsVersion
,endpoint
, andbearerToken
.%scala
dbutils.fs.put("<dbfs-path>/config.share","""
<credential-file-contents>
""")
-
-
Run the cell.
After the credential file is uploaded, you can delete this cell. All workspace users can read the credential file from DBFS, and the credential file is available in DBFS on all clusters and SQL warehouses in your workspace. To delete the cell, click x in the cell actions menu
at the far right.
Now that the credential file is stored, you can use a notebook to list and read shared tables
-
Using Python, list the tables in the share.
In a new cell, paste the following command. Replace
<dbfs-path>
with the path that was created in above.When the code runs, Python reads the credential file from DBFS on the cluster. Access data stored in DBFS at the path
/dbfs/
.Pythonimport delta_sharing
client = delta_sharing.SharingClient(f"/dbfs/<dbfs-path>/config.share")
client.list_all_tables() -
Run the cell.
The result is an array of tables, along with metadata for each table. The following output shows two tables:
Out[10]: [Table(name='example_table', share='example_share_0', schema='default'), Table(name='other_example_table', share='example_share_0', schema='default')]
If the output is empty or doesn’t contain the tables you expect, contact the data provider.
-
Query a shared table.
-
Using Scala:
In a new cell, paste the following command. When the code runs, the credential file is read from DBFS through the JVM.
Replace the variables as follows:
<profile-path>
: the DBFS path of the credential file. For example,/<dbfs-path>/config.share
.<share-name>
: the value ofshare=
for the table.<schema-name>
: the value ofschema=
for the table.<table-name>
: the value ofname=
for the table.
%scala
spark.read.format("deltaSharing")
.load("<profile-path>#<share-name>.<schema-name>.<table-name>").limit(10);Run the cell. Each time you load the shared table, you see fresh data from the source.
-
Using SQL:
To query the data using SQL, you create a local table in the workspace from the shared table, then query the local table. The shared data is not stored or cached in the local table. Each time you query the local table, you see the current state of the shared data.
In a new cell, paste the following command.
Replace the variables as follows:
<local-table-name>
: the name of the local table.<profile-path>
: the location of the credential file.<share-name>
: the value ofshare=
for the table.<schema-name>
: the value ofschema=
for the table.<table-name>
: the value ofname=
for the table.
%sql
DROP TABLE IF EXISTS table_name;
CREATE TABLE <local-table-name> USING deltaSharing LOCATION "<profile-path>#<share-name>.<schema-name>.<table-name>";
SELECT * FROM <local-table-name> LIMIT 10;When you run the command, the shared data is queried directly. As a test, the table is queried and the first 10 results are returned.
If the output is empty or doesn’t contain the data you expect, contact the data provider.
-
Apache Spark: Ler dados compartilhados
Siga estes passos para acessar o uso compartilhado de dados Spark 3.x ouacima.
Essas instruções pressupõem que você tenha acesso ao arquivo de credenciais que foi compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Se estiver usando Spark em um Databricks workspace que esteja habilitado para Unity Catalog e tiver usado a interface do usuário do provedor de importação para importar o provedor e compartilhar, as instruções desta seção não se aplicam a você. O senhor pode acessar as tabelas compartilhadas da mesma forma que qualquer outra tabela registrada no Unity Catalog. O senhor não precisa instalar o conector delta-sharing
Python nem fornecer o caminho para o arquivo de credenciais. Consulte:Databricks Leia os conectores de uso compartilhado de dados de compartilhamento aberto.
Instale os conectores Delta Sharing Python e Spark
Para acessar metadados relacionados aos dados compartilhados, como a lista de tabelas compartilhadas com você, faça o seguinte. Este exemplo usa Python.
-
Instale o conector Python de compartilhamento delta:
Bashpip install delta-sharing
-
Instale o conector do Apache Spark.
Listar tabelas compartilhadas usando o Spark
Liste as tabelas no compartilhamento. No exemplo a seguir, substitua <profile-path>
pela localização do arquivo de credencial.
import delta_sharing
client = delta_sharing.SharingClient(f"<profile-path>/config.share")
client.list_all_tables()
O resultado é uma matriz de tabelas, junto com metadados para cada tabela. A saída a seguir mostra duas tabelas:
Out[10]: [Table(name='example_table', share='example_share_0', schema='default'), Table(name='other_example_table', share='example_share_0', schema='default')]
Se a saída estiver vazia ou não contiver as tabelas que você espera, entre em contato com o provedor de dados.
Acesso compartilhado uso de dados Spark
Execute o seguinte, substituindo essas variáveis:
<profile-path>
: a localização do arquivo de credenciais.<share-name>
: o valor deshare=
para a tabela.<schema-name>
: o valor deschema=
para a tabela.<table-name>
: o valor dename=
para a tabela.<version-as-of>
: opcional. A versão da tabela para carregar os dados. Só funciona se o provedor de dados compartilhar a história da tabela. Requerdelta-sharing-spark
0.5.0 ouacima.<timestamp-as-of>
: opcional. Carregue os dados na versão anterior ou no carimbo de data/hora fornecido. Só funciona se o provedor de dados compartilhar a história da tabela. Requerdelta-sharing-spark
0.6.0 ouacima.
- Python
- Scala
delta_sharing.load_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>", version=<version-as-of>)
spark.read.format("deltaSharing")\
.option("versionAsOf", <version-as-of>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")\
.limit(10))
delta_sharing.load_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>", timestamp=<timestamp-as-of>)
spark.read.format("deltaSharing")\
.option("timestampAsOf", <timestamp-as-of>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")\
.limit(10))
Run the following, replacing these variables:
<profile-path>
: the location of the credential file.<share-name>
: the value ofshare=
for the table.<schema-name>
: the value ofschema=
for the table.<table-name>
: the value ofname=
for the table.<version-as-of>
: optional. The version of the table to load the data. Only works if the data provider shares the history of the table. Requiresdelta-sharing-spark
0.5.0 or above.<timestamp-as-of>
: optional. Load the data at the version before or at the given timestamp. Only works if the data provider shares the history of the table. Requiresdelta-sharing-spark
0.6.0 or above.
spark.read.format("deltaSharing")
.option("versionAsOf", <version-as-of>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
.limit(10)
spark.read.format("deltaSharing")
.option("timestampAsOf", <version-as-of>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
.limit(10)
Acesse o feed de dados de alterações compartilhadas usando o Spark
Se a história da tabela foi compartilhada com você e o feed de dados alterados (CDF) está ativado na tabela de origem, você pode acessar o feed de dados alterados executando o seguinte, substituindo essas variáveis. Requer delta-sharing-spark
0.5.0 ouacima.
Um e somente um parâmetro de início deve ser fornecido.
<profile-path>
: a localização do arquivo de credenciais.<share-name>
: o valor deshare=
para a tabela.<schema-name>
: o valor deschema=
para a tabela.<table-name>
: o valor dename=
para a tabela.<starting-version>
: opcional. A versão inicial da consulta, inclusive. Especifique como longo.<ending-version>
: opcional. A versão final da consulta, inclusive. Se a versão final não for fornecida, a API usará a versão mais recente da tabela.<starting-timestamp>
: opcional. O carimbo de data/hora inicial da consulta, é convertido em uma versão criada maior ou igual a esse carimbo de data/hora. Especifique como uma cadeia de caracteres no formatoyyyy-mm-dd hh:mm:ss[.fffffffff]
.<ending-timestamp>
: opcional. O carimbo de data/hora final da consulta, é convertido em uma versão criada anteriormente ou igual a esse carimbo de data/hora. Especifique como uma cadeia de caracteres no formatoyyyy-mm-dd hh:mm:ss[.fffffffff]
- Python
- Scala
delta_sharing.load_table_changes_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>",
starting_version=<starting-version>,
ending_version=<ending-version>)
delta_sharing.load_table_changes_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>",
starting_timestamp=<starting-timestamp>,
ending_timestamp=<ending-timestamp>)
spark.read.format("deltaSharing").option("readChangeFeed", "true")\
.option("statingVersion", <starting-version>)\
.option("endingVersion", <ending-version>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
spark.read.format("deltaSharing").option("readChangeFeed", "true")\
.option("startingTimestamp", <starting-timestamp>)\
.option("endingTimestamp", <ending-timestamp>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
spark.read.format("deltaSharing").option("readChangeFeed", "true")
.option("statingVersion", <starting-version>)
.option("endingVersion", <ending-version>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
spark.read.format("deltaSharing").option("readChangeFeed", "true")
.option("startingTimestamp", <starting-timestamp>)
.option("endingTimestamp", <ending-timestamp>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
Se a saída estiver vazia ou não contiver os dados esperados, entre em contato com o provedor de dados.
Acessar uma tabela compartilhada usando Spark transmissão estructurada
Se a história da tabela for compartilhada com você, você poderá ler os dados compartilhados por transmissão. Requer delta-sharing-spark
0.6.0 ouacima.
Opções suportadas:
ignoreDeletes
: ignore as transações que excluem dados.ignoreChanges
: Processe novamente as atualizações se os arquivos foram reescritos na tabela de origem devido a operações de alteração de dados, comoUPDATE
,MERGE INTO
,DELETE
(dentro de partições) ouOVERWRITE
. As linhas inalteradas ainda podem ser emitidas. Portanto, seus consumidores posteriores devem ser capazes de lidar com duplicatas. As exclusões não são propagadas a jusante.ignoreChanges
incluiignoreDeletes
. Portanto, se o senhor usarignoreChanges
, sua transmissão não será interrompida por exclusões ou atualizações na tabela de origem.startingVersion
: A versão da tabela compartilhada a partir da qual o senhor deve começar. Todas as alterações na tabela a partir dessa versão (inclusive) serão lidas pela fonte de transmissão.startingTimestamp
: O registro de data e hora para começar. Todas as alterações de tabela confirmadas no registro de data e hora ou após esse registro (inclusive) serão lidas pela fonte de transmissão. Exemplo:"2023-01-01 00:00:00.0"
.maxFilesPerTrigger
: O número de novos arquivos a serem considerados em cada micro-lote.maxBytesPerTrigger
: A quantidade de dados que é processada em cada micro-lote. Essa opção define um "soft max", o que significa que um lote processa aproximadamente essa quantidade de dados e pode processar mais do que o limite para fazer com que a consulta de transmissão avance nos casos em que a menor unidade de entrada for maior do que esse limite.readChangeFeed
Transmissão: lê o feed de dados de alteração da tabela compartilhada.
Opções não suportadas:
Trigger.availableNow
Exemplo de consultas de transmissão estruturada
- Scala
- Python
spark.readStream.format("deltaSharing")
.option("startingVersion", 0)
.option("ignoreChanges", true)
.option("maxFilesPerTrigger", 10)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
spark.readStream.format("deltaSharing")\
.option("startingVersion", 0)\
.option("ignoreDeletes", true)\
.option("maxBytesPerTrigger", 10000)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
Veja também transmissão em Databricks.
Leia tabelas com vetores de exclusão ou mapeamento de colunas habilitados
Visualização
Esse recurso está em Public Preview.
Os vetores de exclusão são um recurso de otimização de armazenamento que seu provedor pode ativar em tabelas Delta compartilhadas. Consulte O que são vetores de exclusão? .
O Databricks também oferece suporte ao mapeamento de colunas para tabelas Delta. Consulte Renomear e soltar colunas com o mapeamento de colunas do Delta Lake.
Se o provedor compartilhou uma tabela com vetores de exclusão ou mapeamento de coluna ativado, o senhor pode ler a tabela usando compute que esteja executando delta-sharing-spark
3.1 ou acima. Se estiver usando o clustering Databricks, o senhor pode realizar leituras de lotes usando um clustering que esteja executando o Databricks Runtime 14.1 ou o acima. As consultas de CDF e transmissão exigem o site Databricks Runtime 14.2 ou superior.
O senhor pode realizar muitas consultas como estão, porque elas podem resolver automaticamente responseFormat
com base no recurso de tabela da tabela compartilhada.
Para ler um feed de dados de alteração (CDF) ou para realizar consultas de transmissão em tabelas compartilhadas com vetores de exclusão ou mapeamento de coluna ativados, o senhor deve definir a opção adicional responseFormat=delta
.
Os exemplos a seguir mostram consultas de lotes, CDF e transmissão:
import org.apache.spark.sql.SparkSession
val spark = SparkSession
.builder()
.appName("...")
.master("...")
.config("spark.sql.extensions", "io.delta.sql.DeltaSparkSessionExtension")
.config("spark.sql.catalog.spark_catalog", "org.apache.spark.sql.delta.catalog.DeltaCatalog")
.getOrCreate()
val tablePath = "<profile-file-path>#<share-name>.<schema-name>.<table-name>"
// Batch query
spark.read.format("deltaSharing").load(tablePath)
// CDF query
spark.read.format("deltaSharing")
.option("readChangeFeed", "true")
.option("responseFormat", "delta")
.option("startingVersion", 1)
.load(tablePath)
// Streaming query
spark.readStream.format("deltaSharing").option("responseFormat", "delta").load(tablePath)
Pandas: Ler dados compartilhados
Siga estes passos para acessar dados compartilhados em pandas 0.25.3 ouacima.
Essas instruções pressupõem que você tenha acesso ao arquivo de credenciais que foi compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Se estiver usando Pandas em um Databricks workspace que esteja habilitado para Unity Catalog e tiver usado a interface do usuário do provedor de importação para importar o provedor e compartilhar, as instruções desta seção não se aplicam a você. O senhor pode acessar as tabelas compartilhadas da mesma forma que qualquer outra tabela registrada no Unity Catalog. O senhor não precisa instalar o conector delta-sharing
Python nem fornecer o caminho para o arquivo de credenciais. Consulte:Databricks Leia os conectores de uso compartilhado de dados de compartilhamento aberto.
Instale o conector Python do Delta Sharing
Para acessar os metadados relacionados aos dados compartilhados, como a lista de tabelas compartilhadas com o senhor, é necessário instalar o conector Python de compartilhamento delta.
pip install delta-sharing
Listar tabelas compartilhadas usando Pandas
Para listar as tabelas no compartilhamento, execute o seguinte, substituindo <profile-path>/config.share
pelo local do arquivo de credenciais.
import delta_sharing
client = delta_sharing.SharingClient(f"<profile-path>/config.share")
client.list_all_tables()
Se a saída estiver vazia ou não contiver as tabelas que você espera, entre em contato com o provedor de dados.
Acesso compartilhado uso de dados Pandas
Para acessar dados compartilhados em Pandas usando Python, execute o seguinte, substituindo as variáveis da seguinte forma:
<profile-path>
: a localização do arquivo de credenciais.<share-name>
: o valor deshare=
para a tabela.<schema-name>
: o valor deschema=
para a tabela.<table-name>
: o valor dename=
para a tabela.
import delta_sharing
delta_sharing.load_as_pandas(f"<profile-path>#<share-name>.<schema-name>.<table-name>")
Acesse um feed de dados de alterações compartilhadas usando Pandas
Para acessar o feed de dados de alteração de uma tabela compartilhada em Pandas usando Python, execute o seguinte, substituindo as variáveis da seguinte forma. Um feed de dados de alteração pode não estar disponível, dependendo se o provedor de dados compartilhou ou não o feed de dados de alteração da tabela.
<starting-version>
: opcional. A versão inicial da consulta, inclusive.<ending-version>
: opcional. A versão final da consulta, inclusive.<starting-timestamp>
: opcional. A data e hora de início da consulta. Isso é convertido em uma versão criada maior ou igual a esse carimbo de data/hora.<ending-timestamp>
: opcional. O carimbo de data/hora final da consulta. Isso é convertido em uma versão criada anteriormente ou igual a esse carimbo de data/hora.
import delta_sharing
delta_sharing.load_table_changes_as_pandas(
f"<profile-path>#<share-name>.<schema-name>.<table-name>",
starting_version=<starting-version>,
ending_version=<starting-version>)
delta_sharing.load_table_changes_as_pandas(
f"<profile-path>#<share-name>.<schema-name>.<table-name>",
starting_timestamp=<starting-timestamp>,
ending_timestamp=<ending-timestamp>)
Se a saída estiver vazia ou não contiver os dados esperados, entre em contato com o provedor de dados.
Power BI: ler dados compartilhados
O conector Power BI Delta Sharing permite que o senhor descubra, analise e visualize o conjunto de dados compartilhado com o senhor por meio do protocolo aberto Delta Sharing.
Requisitos
- Power BI Desktop 2.99.621.0 ouacima.
- Acesso ao arquivo de credenciais que foi compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Conectar-se ao Databricks
Para se conectar ao Databricks usando o conector Delta Sharing, faça o seguinte:
- Abra o arquivo de credencial compartilhada com um editor de texto para recuperar o URL endpoint e os tokens.
- Abra o Power BI Desktop.
- No menu Get Data (Obter dados ), procure por Delta Sharing .
- Selecione o conector e clique em Conectar .
- Digite o URL do endpoint que o senhor copiou do arquivo de credenciais no campo URL do Delta Sharing Server .
- Opcionalmente, em Advanced Options tab, defina um Row Limit para o número máximo de linhas que o senhor pode download. Isso é definido como 1 milhão de linhas em default.
- Clique em OK .
- Para Authentication (Autenticação ), copie os tokens que o senhor recuperou do arquivo de credenciais para Bearer tokens (Tokens do portador ).
- Clique em Conectar .
Limitações do conector Power BI Delta Sharing
O conector Power BI Delta Sharing tem as seguintes limitações:
- Os dados que o conector carrega devem caber na memória da sua máquina. Para gerenciar esse requisito, o conector limita o número de linhas importadas ao Limite de linhas que o senhor define nas Opções avançadas tab em Power BI Desktop.
Tableau: Ler dados compartilhados
O conector Tableau Delta Sharing permite que o senhor descubra, analise e visualize conjuntos de dados compartilhados com o senhor por meio do protocolo aberto Delta Sharing.
Requisitos
- Tableau Desktop e Tableau Server 2024.1 ou acima
- Acesso ao arquivo de credenciais que foi compartilhado pelo provedor de dados. Consulte Obter acesso no modelo de compartilhamento aberto.
Conectar-se ao Databricks
Para se conectar ao Databricks usando o conector Delta Sharing, faça o seguinte:
- Acesse Tableau Exchange, siga as instruções para download o conector Delta Sharing e coloque-o em uma pasta apropriada da área de trabalho.
- Abra o Tableau Desktop.
- Na página Connectors (Conectores ), procure por "Delta Sharing by Databricks".
- Selecione carregar arquivo de compartilhamento e escolha o arquivo de credencial que foi compartilhado pelo provedor.
- Clique em Obter dados .
- No Data Explorer, selecione a tabela.
- Opcionalmente, adicione filtros SQL ou limites de linha.
- Clique em Obter dados da tabela .
Limitações do conector Tableau Delta Sharing
O conector Tableau Delta Sharing tem as seguintes limitações:
- Os dados que o conector carrega devem caber na memória da sua máquina. Para gerenciar esse requisito, o conector limita o número de linhas importadas ao limite de linhas que o senhor definiu no Tableau.
- Todas as colunas são retornadas como tipo
String
. - O SQL Filter só funciona se o seu servidor Delta Sharing suportar predicateHint.
Solicite uma nova credencial
Se o URL de ativação da credencial ou a credencial de downloads for perdida, corrompida ou comprometida, ou se a credencial expirar sem que o provedor envie uma nova, entre em contato com o provedor para solicitar uma nova credencial.