Conectar-se ao Spotfire analista

Este artigo descreve como usar o Spotfire analista com um Databricks cluster ou um Databricks SQL warehouse.

Requisitos

passos para conectar

  1. No Spotfire analista, na barra de navegação, clique no ícone de mais(Arquivos e dados) e clique em Conectar a.

  2. Selecione Databricks e clique em Nova conexão.

  3. Na caixa de diálogo Apache Spark SQL , na tab General , para Server, insira os valores do campo Server hostname e Port da passo 1, separados por dois pontos.

  4. Para Método de autenticação, selecione Nome de usuário e senha.

  5. Para Nome de usuário, insira a palavra token.

  6. Para Password, insira seus access tokens pessoal da passo 1.

  7. Na tab Avançado , para o modo de transporte Thrift, selecione HTTP.

  8. Para HTTP Path, insira o valor do campo HTTP Path da passo 1.

  9. Na tab Geral , clique em Conectar.

  10. Após uma conexão bem-sucedida, na lista Banco de dados , selecione o banco de dados que deseja usar e clique em OK.

Selecione os dados do Databricks para analisar

Você seleciona os dados na view na caixa de diálogo Conexão .

Mesas disponíveis
  1. Navegue pelas tabelas disponíveis no Databricks.

  2. Adicione as tabelas que deseja como visualização, que serão as tabelas de dados que o senhor analisa no Spotfire.

  3. Para cada view, você pode decidir quais colunas deseja incluir. Se você deseja criar uma seleção de dados muito específica e flexível, você tem acesso a uma variedade de ferramentas poderosas nesta caixa de diálogo, como:

    • query personalizada. Com query personalizada, você pode selecionar os dados que deseja analisar digitando uma query SQL personalizada.

    • Solicitando. Deixe a seleção de dados para o usuário do seu arquivo de análise. Você configura prompts com base nas colunas de sua escolha. Em seguida, o usuário final que abre a análise pode optar por limitar e view dados apenas para valores relevantes. Por exemplo, o usuário pode selecionar dados dentro de um determinado período de tempo ou para uma região geográfica específica.

  4. Clique em OK.

query push-down para Databricks ou importar dados

Depois de selecionar os dados que deseja analisar, a passo final é escolher como deseja recuperar os dados do Databricks. Um resumo das tabelas de dados que você está adicionando à sua análise é exibido e você pode clicar em cada tabela para alterar o método de carregamento de dados.

exemplo de tabela de pedidos

A opção default para Databricks é External. Isso significa que a tabela de dados é mantida no banco de dados no Databricks, e o Spotfire envia diferentes consultas ao banco de dados para obter as partes relevantes dos dados, com base em suas ações na análise.

O senhor também pode selecionar Imported e o Spotfire extrairá toda a tabela de dados antecipadamente, o que permite a análise local na memória. Ao importar tabelas de dados, o senhor também usa funções analíticas no mecanismo de dados incorporado na memória do TIBCO Spotfire.

A terceira opção é On-demand (correspondente a uma cláusula WHERE dinâmica), o que significa que fatias de dados serão extraídas com base nas ações do usuário na análise. Você pode definir os critérios, que podem ser ações como marcar ou filtrar dados ou alterar as propriedades do documento. O carregamento de dados sob demanda também pode ser combinado com tabelas de dados externas .

Recursos adicionais

Suporte