Conectar-se ao Spotfire analista
Este artigo descreve como usar o Spotfire analista com um Databricks clustering ou um Databricks SQL warehouse.
Requisitos
-
Um agrupamento ou SQL warehouse em seu Databricks workspace.
-
Os detalhes da conexão para seu clustering ou SQL warehouse, especificamente os valores de Server Hostname , Port e HTTP Path .
-
A Databricks tokens de acesso pessoal. Para criar tokens de acesso pessoal, siga as etapas em Databricks personal access tokens para usuários workspace.
Como prática recomendada de segurança ao se autenticar com ferramentas, sistemas, scripts e aplicativos automatizados, a Databricks recomenda que você use tokens OAuth.
Se o senhor usar a autenticação de tokens de acesso pessoal, a Databricks recomenda usar o acesso pessoal tokens pertencente à entidade de serviço em vez de usuários workspace. Para criar tokens o site para uma entidade de serviço, consulte gerenciar tokens para uma entidade de serviço.
Etapas para se conectar
- No Spotfire analista, na barra de navegação, clique no ícone de mais (Arquivos e dados ) e clique em Conectar a .
- Selecione Databricks e clique em New connection (Nova conexão ).
- Na caixa de diálogo Apache Spark SQL , na tab General , para Server , insira os valores do campo Server hostname e Port da passo 1, separados por dois pontos.
- Em Método de autenticação , selecione Nome de usuário e senha .
- Em Nome de usuário , digite a palavra
token
. - Para Password , insira seus access tokens pessoal da passo 1.
- No site Advanced tab, para o modo de transporte Thrift , selecione HTTP .
- Para HTTP Path , insira o valor do campo HTTP Path da passo 1.
- Em General tab, clique em Connect (Conectar ).
- Depois de uma conexão bem-sucedida, na lista Banco de dados , selecione o banco de dados que você deseja usar e clique em OK .
Selecione os dados do Databricks a serem analisados
O senhor seleciona os dados na visualização na caixa de diálogo Conexão.
-
Navegue pelas tabelas disponíveis no Databricks.
-
Adicione as tabelas que deseja como visualização, que serão as tabelas de dados que o senhor analisa no Spotfire.
-
Para cada view, o senhor pode decidir quais colunas deseja incluir. Se quiser criar uma seleção de dados muito específica e flexível, você tem acesso a uma variedade de ferramentas poderosas nessa caixa de diálogo, como:
- Consultas personalizadas. Com as consultas personalizadas, o senhor pode selecionar os dados que deseja analisar digitando uma consulta SQL personalizada.
- Solicitando. Deixe a seleção de dados para o usuário do seu arquivo de análise. Você configura os prompts com base nas colunas de sua escolha. Em seguida, o usuário final que abre a análise pode optar por limitar e view dados apenas para valores relevantes. Por exemplo, o usuário pode selecionar dados dentro de um determinado período de tempo ou para uma região geográfica específica.
-
Clique em OK .
Consultas push-down para Databricks ou importação de dados
Depois de selecionar os dados que deseja analisar, a passo final é escolher como deseja recuperar os dados do Databricks. Um resumo das tabelas de dados que você está adicionando à sua análise é exibido e você pode clicar em cada tabela para alterar o método de carregamento de dados.
A opção default para Databricks é External . Isso significa que a tabela de dados é mantida no banco de dados no Databricks e o Spotfire envia diferentes consultas ao banco de dados para obter as partes relevantes dos dados, com base em suas ações na análise.
O senhor também pode selecionar Imported e o Spotfire extrairá toda a tabela de dados antecipadamente, o que permite a análise local na memória. Ao importar tabelas de dados, o senhor também usa funções analíticas no mecanismo de dados incorporado na memória do TIBCO Spotfire.
A terceira opção é On-demand (correspondente a uma cláusula WHERE
dinâmica), o que significa que as fatias de dados serão extraídas com base nas ações do usuário na análise. Você pode definir os critérios, que podem ser ações como marcar ou filtrar dados ou alterar as propriedades do documento. O carregamento de dados sob demanda também pode ser combinado com tabelas de dados externas .