Databricks Driver para SQLTools for Visual Studio Code

Visualização

Este recurso está em visualização pública.

O Driver Databricks para SQLTools permite que você use a extensão SQLTools para Visual Studio Code para procurar objetos SQL e executar query SQL no workspace remoto do Databricks.

Antes de começar

Antes de poder usar o Driver Databricks para SQLTools, seu workspace Databricks e sua máquina de desenvolvimento local devem atender aos seguintes requisitos.

Requisitos do espaço de trabalho

Você deve ter pelo menos um workspace Databricks disponível e o workspace deve atender aos seguintes requisitos:

Requisitos de máquina de desenvolvimento local

Você deve ter o seguinte em sua máquina de desenvolvimento local:

  • Visual Studio Code versão 1.70 ou superior. Para view a versão instalada, clique em Código > Sobre o Visual Studio Code no menu principal no Linux ou macOS e em Ajuda > Sobre no Windows. Para downloads, instalar e configurar o Visual Studio Code, consulte Configurando o Visual Studio Code.

  • A extensão SQLTools para Visual Studio Code.

  • A extensão Databricks Driver para SQLTools para Visual Studio Code.

Para instalar a extensão SQLTools, acesse SQLTools e clique em Instalar ou:

  1. No Visual Studio Code, clique em view > Extensões no menu principal.

  2. Na caixa Extensões de pesquisa no marketplace , digite SQLTools.

  3. Clique na entrada SQLTools de Matheus Teixeira.

    Observação

    Pode haver várias entradas SQLTools listadas. Certifique-se de clicar na entrada de Matheus Teixeira.

  4. Clique em Instalar.

Para instalar a extensão Databricks Driver for SQLTools, vá para Databricks Driver for SQLTools e clique em Instalar ou:

  1. No Visual Studio Code, clique em view > Extensões no menu principal.

  2. Na caixa Extensões de pesquisa no marketplace , digite Databricks Driver for SQLTools.

  3. Clique na entrada Databricks Driver para SQLTools .

  4. Clique em Instalar.

Autenticação

Você deve configurar a autenticação para o driver Databricks para SQLTools da seguinte maneira.

O Databricks Driver para SQLTools dá suporte aos seguintes tipos de autenticação do Databricks:

Autenticação access token pessoal do Databricks

Para usar o Databricks driver para SQLTools com Databricks autenticação pessoal,access token o senhor deve ter um Databricks access tokenpessoal. Para criar um access token pessoal, siga os passos em Databricks access tokens pessoal para usuários do workspace .

Autenticação OAuth máquina a máquina (M2M) da Databricks

O senhor pode usar a autenticação máquina a máquina (M2M) do Databricks OAuth para se autenticar com o Databricks Driver for SQLTools, como segue:

Observação

A autenticação Databricks OAuth M2M está disponível no Databricks Driver for SQLTools versões 0.4.2 e superiores.

  1. Conclua a configuração dos passos para a autenticação OAuth M2M. Consulte a autenticação OAuth máquina a máquina (M2M).

  2. Crie um perfil de configuração do Databricks com suas definições de configuração de autenticação OAuth M2M. Consulte a seção "Config" da autenticação máquina a máquina (M2M) do OAuth.

  3. Instale e abra a extensão Databricks para Visual Studio Code na sua máquina de desenvolvimento local.

  4. Na extensão Databricks para Visual Studio Code, clique no botão Configurar no painel Configuração . Se o botão Configurar não for exibido, clique no ícone de engrenagem (Configurar workspace).

  5. Na paleta de comandos, para Databricks Host, digite o URL da instância do espaço de trabalho do Databricks, por exemplo, https://dbc-a1b2345c-d6e7.cloud.databricks.com, e pressione Enter.

  6. Selecione a entrada do perfil de configuração que corresponde à que o senhor criou no passo 2.

  7. Complete as instruções na tela do navegador da Web para concluir a autenticação com a Databricks account.

Autenticação OAuth de usuário para máquina (U2M) da Databricks

Você pode usar a autenticação usuário-máquina (U2M) do Databricks OAuth para autenticar com o driver Databricks para SQLTools, da seguinte maneira:

Observação

A autenticação Databricks OAuth U2M está disponível no Databricks Driver for SQLTools versões 0.4.2 e acima.

  1. Instale e abra a extensão Databricks para Visual Studio Code na sua máquina de desenvolvimento local.

  2. Na extensão Databricks para Visual Studio Code, clique no botão Configurar no painel Configuração . Se o botão Configurar não for exibido, clique no ícone de engrenagem (Configurar workspace).

  3. No comando Palette, para Databricks Host, insira o URL da instância do espaço de trabalho do Databricks, por exemplo https://dbc-a1b2345c-d6e7.cloud.databricks.com. Em seguida, pressione Enter.

  4. Selecione OAuth (usuário para máquina).

  5. Conclua as instruções na tela do seu navegador da Web para concluir a autenticação com sua account do Databricks. Se solicitado, permita acesso a all-apis .

Conectar a um esquema

  1. No Visual Studio Code, na barra lateral, clique no ícone SQLTools .

  2. Na view SQLTools , se esta for a primeira vez que você usa a extensão SQLTools, clique em Add New Connection no painel Connections . Caso contrário, clique no ícone Adicionar nova conexão na barra de título do painel.

  3. Na guia Configurações do SQLTools, para a passo Selecionar um driver de banco de dados , clique no ícone Databricks .

  4. Para a passo Connection Settings , insira as seguintes informações sobre seu warehouse, catálogo e esquema:

    1. Para Connection name, insira algum nome exclusivo para esta conexão.

    2. (Opcional) Para Grupo de conexão , insira o nome de um grupo de conexão existente para adicionar a nova conexão a esse grupo. Ou insira um nome exclusivo para criar um novo grupo de conexão com a nova conexão. Os grupos de conexão facilitam a localização de conexões no ramal.

    1. Para Conectar usando, selecione uma das seguintes opções:

      • Para usar um access token pessoal do Databricks para autenticação, selecione hostname e tokens.

      • Para o Databricks Driver for SQLTools versões 0.4.2 e superiores, para usar a autenticação OAuth U2M ou M2M, selecione a extensão VS Code (beta).

    1. Se você selecionou hostname e tokens para Connect usando, em seguida, para Host, insira a configuração hostnamedo servidor do warehouse. Para obter a configuração hostnamedo servidor de um warehouse, consulte Obter detalhes de conexão para um recurso de computação do Databricks.

    2. Para Path, insira a clustersconfiguração do caminho HTTP do warehouse ou . Para obter a configuração do caminho HTTP de um armazém, consulte Obter detalhes de conexão para um recurso de computação do Databricks.

    3. Se o senhor selecionou hostname e tokens para usar o Connect, digite seu valor pessoal do Databricks access token em tokens.

    4. Para Catálogo, digite o nome do seu catálogo.

      Observação

      Para workspace que não estão habilitados para Unity Catalog, você pode deixar Catálogo em branco para usar o valor default de hive_metastore.

    5. Para Esquema, insira o nome do seu esquema.

    6. (Opcional) Para Mostrar limite default registros, deixe o default de 50 para mostrar apenas até as primeiras 50 linhas para cada query ou insira um limite diferente.

  5. Clique em Testar conexão.

  6. Se o teste de conexão for bem-sucedido, clique em Salvar conexão.

Alterar as configurações de uma conexão

Este procedimento pressupõe que você se conectou com sucesso a pelo menos um depósito.

  1. Se a view SQLTools não estiver visível, no Visual Studio Code, na barra lateral, clique no ícone SQLTools .

  2. No painel Conexões , expanda o grupo de conexões, se houver um para sua conexão de destino.

  3. Clique com o botão direito do mouse na conexão e clique em Editar conexão.

  4. Altere as configurações de destino.

  5. Clique em Testar conexão.

  6. Se o teste de conexão for bem-sucedido, clique em Salvar conexão.

Navegue pelos objetos de um esquema

  1. No painel Conexões , expanda o grupo de conexões, se houver um para sua conexão de destino.

  2. Clique duas vezes ou expanda a conexão de destino para seu warehouse.

  3. Expanda o banco de dados de destino (esquema), se houver um para sua conexão.

  4. Expanda Tables or Views, se existir uma ou mais tabelas ou views para seu banco de dados (esquema).

  5. Expanda qualquer tabela ou view de destino para view as colunas da tabela ou view .

Exibir as linhas ou o esquema de uma tabela ou exibição

Com Tabelas ou view expandida no painel Conexões , siga um destes procedimentos:

  • Para mostrar as linhas da tabela ou view , clique com o botão direito do mouse na tabela ou view e clique em Mostrar registros da tabela ou Mostrar registros view .

  • Para mostrar o esquema da tabela ou view , clique com o botão direito do mouse na tabela ou view e clique em Descrever tabela ou Descrever view.

Gerar uma consulta de inserção para uma tabela

  1. Coloque o cursor em um editor existente no local onde deseja que a query de inserção seja adicionada.

  2. Com Tabelas expandidas no painel Conexões , clique com o botão direito do mouse na tabela e clique em Gerar queryInserir. A definição da queryde inserção é adicionada no ponto de inserção do cursor.

Criar e executar uma consulta

Este procedimento pressupõe que você se conectou com sucesso a pelo menos um depósito.

  1. No painel Conexões , expanda o grupo de conexões, se houver um para sua conexão de destino.

  2. Clique duas vezes ou expanda a conexão de destino para seu warehouse.

  3. Com a conexão selecionada, clique em Novo arquivo SQL na barra de título do painel Conexões . Uma nova tab do editor é exibida.

  4. Insira sua query SQL no novo editor.

  5. Para executar a query SQL, clique em execução na conexão ativa no editor. Os resultados da querysão exibidos em uma nova tab do editor.

execução de uma consulta existente

Este procedimento pressupõe que você se conectou com sucesso a pelo menos um depósito.

  1. No painel Conexões , expanda o grupo de conexões, se houver um para sua conexão de destino.

  2. Clique duas vezes ou expanda a conexão de destino para seu warehouse.

  3. Com a conexão selecionada, abra qualquer arquivo com a extensão de arquivo .sql ou selecione qualquer grupo de instruções SQL contínuas em qualquer editor que tenha sido aberto anteriormente.

  4. Para executar a query SQL de um arquivo .sql aberto, com o conteúdo do arquivo .sql exibido no editor, clique em execução na conexão ativa no editor. Os resultados da querysão exibidos em uma nova tab do editor.

  5. Para executar um grupo selecionado de instruções SQL contínuas em um editor que foi aberto anteriormente, clique com o botão direito do mouse em sua seleção e clique em execução queryselecionada. Os resultados da querysão exibidos em uma nova tab do editor.

Enviar registros de uso para a Databricks

Se tiver problemas ao usar o Databricks Driver for SQLTools, o senhor pode enviar logs e informações relacionadas ao Databricks Support da seguinte forma:

  1. Instale a extensão Databricks para o Visual Studio Code em seu computador de desenvolvimento local.

  2. Ative o registro marcando a configuração logs: Enabled ou definindo databricks.logs.enabled para true, conforme descrito em Configurações para a extensão Databricks para Visual Studio Code Certifique-se de reiniciar o Visual Studio Code depois de ativar o registro.

  3. Tente reproduzir seu problema.

  4. Na paleta de comandos (view > Paleta de comandos no menu principal), execute o comando Databricks: Open full logs comando.

  5. Envie os arquivos Databricks Logs.log, databricks-cli-logs.json e sdk-and-extension-logs.json que aparecem para o suporte da Databricks.

  6. Copie também o conteúdo do Terminal (view > Terminal) no contexto do problema e envie esse conteúdo para Databricks Support.

A saída view (view > Saída, Databricks logs ) mostra informações truncadas se logs: Enabled estiver marcado ou databricks.logs.enabled estiver definido como true. Para mostrar mais informações, altere as seguintes configurações, conforme descrito em Configurações da extensão Databricks para o Visual Studio Code:

  • logs: Comprimento máximo da matriz ou databricks.logs.maxArrayLength

  • logs: Comprimento máximo do campo ou databricks.logs.maxFieldLength

  • logs: Profundidade de truncamento ou databricks.logs.truncationDepth