Propriedades de conexão suportadas
Este artigo descreve as propriedades de conexão compatíveis com o driverDatabricks JDBC (OSS).
Propriedades de autenticação e proxy
As seguintes propriedades de conexão são compatíveis com o Databricks JDBC Driver (OSS). As propriedades não diferenciam maiúsculas de minúsculas.
Propriedade | Valor padrão | Descrição |
---|---|---|
|
| O tempo em milissegundos entre cada pesquisa para o status de execução da consulta assíncrona. Assíncrono refere-se ao fato de que a chamada RPC usada para executar uma consulta no Spark é assíncrona. Isso não significa que haja suporte para operações assíncronas de JDBC. |
|
| O fluxo de autenticação OAuth2 para a conexão do driver. Essa propriedade é necessária se |
|
| O caminho para o arquivo key privado (formato PEM) para autenticação JWT. |
|
| O algoritmo para autenticação privada key JWT. Os algoritmos suportados são: RSA: RS256, RS384, RS512, PS256, PS384, PS512 e EC: ES256, ES384, ES512 |
|
| A frase secreta para descriptografar um site privado criptografado key. |
|
| O identificador de chave (KID) necessário para a autenticação JWT. Isso é obrigatório ao usar o key JWT privado. |
| Obrigatório | O mecanismo de autenticação, em que |
|
| Se definido como |
|
| Uma cadeia de caracteres que representa o nome do host proxy a ser usado quando |
|
| Um inteiro que representa o número da porta proxy a ser usada quando |
|
| Uma cadeia de caracteres que representa o nome de usuário a ser usado para autenticação de proxy quando |
|
| Uma cadeia de caracteres que representa a senha a ser usada para autenticação de proxy quando |
|
| O nome do catálogo default a ser usado. |
|
| O nome do esquema default a ser usado. Isso pode ser especificado substituindo |
|
| Permite a autenticação usando um serviço do Google account. |
|
| O caminho para o arquivo JSON key para a autenticação do serviço Google account. |
|
| Se definido como |
|
| O URL de descoberta do OpenID Connect para recuperar a configuração do OIDC. |
|
| Os tokens OAuth2 refresh usados para recuperar novos tokens de acesso. |
|
| O URL do endpoint de autorização usado em um fluxo OAuth2. |
|
| Os tokens endpoint URL para o fluxo OAuth2. |
|
| Se definido como |
|
| Uma cadeia de caracteres que representa o nome do host proxy a ser usado quando |
|
| Um inteiro que representa o número da porta proxy a ser usada quando |
|
| Uma cadeia de caracteres que representa a senha a ser usada para autenticação de proxy quando |
|
| Uma cadeia de caracteres que representa o nome de usuário a ser usado para autenticação de proxy quando |
|
| Se o conector se comunica com o servidor Spark por meio de um soquete habilitado para SSL. |
|
| Se definido como |
|
| Se definido como |
|
| Se definido como |
|
| Habilita a autenticação privada key JWT para casos de uso M2M em que a autenticação secreta do cliente é restrita. |
|
| A entrada User-Agent a ser incluída na solicitação HTTP. Esse valor está no seguinte formato: |
|
| Se o driver JDBC deve usar o cliente Thrift ou as APIs Statement Execution. |
Propriedades de configuração do SQL
As seguintes propriedades de configuração do SQL são compatíveis com o Databricks JDBC Driver (OSS). Eles também são descritos em Parâmetros de configuração. As propriedades não diferenciam maiúsculas de minúsculas.
Propriedade | Valor padrão | Descrição |
---|---|---|
|
| Se o comportamento ANSI SQL estrito deve ser ativado para determinadas funções e regras de conversão. |
|
| Se o mecanismo de consulta vetorizada do Photon deve ser ativado. |
|
| Os métodos usados para analisar e formatar datas e carimbos de data/hora. Os valores válidos são |
|
| O número máximo de bytes a serem compactados em uma única partição ao ler de fontes baseadas em arquivos. A configuração pode ser qualquer número inteiro positivo e, opcionalmente, incluir uma medida como |
|
| Controla se um metastore externo é tratado como somente para leitura. |
|
| Define um tempo limite de instrução SQL entre 0 e 172800 segundos. |
|
| Defina o fuso horário local. IDs de região no formato |
|
| Se o Databricks SQL armazena em cache e reutiliza os resultados sempre que possível. |
Propriedades de registro
As seguintes propriedades de registro são compatíveis com o Databricks JDBC Driver (OSS). As propriedades não diferenciam maiúsculas de minúsculas.
Propriedade | Valor padrão | Descrição |
---|---|---|
|
| O nível de registro, que é um valor de 0 a 6:
Use essa propriedade para ativar ou desativar o registro em log no conector e para especificar a quantidade de detalhes incluídos nos arquivos de log. |
| Para determinar o caminho default para logs, o driver usa o valor definido para essas propriedades do sistema, nesta ordem de prioridade:
| O caminho completo para a pasta em que o conector salva os arquivos log quando o registro em log está ativado, como uma cadeia de caracteres. Para garantir que o URL de conexão seja compatível com todos os aplicativos JDBC, escape as barras invertidas ( Se o valor |
| Sem máximo | O tamanho máximo permitido do arquivo log, especificado em MB |
| Sem máximo | O número máximo de arquivos permitidos no site log |
Ativar e configurar o registro
O driver JDBC é compatível com as estruturas Simple Logging Facade for Java (SLF4J) e java.util.logging (JUL). O driver usa a estrutura de registro JUL por default.
Para ativar e configurar o registro em log do driver JDBC:
-
Ative a estrutura de registro que você deseja usar:
- Para o registro em log do SLF4J, defina a propriedade do sistema
-Dcom.databricks.jdbc.loggerImpl=SLF4JLOGGER
e forneça a implementação de ligação do SLF4J (compatível com o SLF4J versão 2.0.13 e acima) e o arquivo de configuração correspondente no classpath. - Para o registro de JUL, defina a propriedade do sistema
-Dcom.databricks.jdbc.loggerImpl=JDKLOGGER
. Este é o site default.
- Para o registro em log do SLF4J, defina a propriedade do sistema
-
Defina a propriedade
LogLevel
nas cadeias de conexão para o nível desejado de informações a serem incluídas nos arquivos log. -
Defina a propriedade
LogPath
nas cadeias de conexão como o caminho completo para a pasta onde o senhor deseja salvar os arquivos log.Por exemplo, o URL de conexão a seguir habilita o nível de registro 6 e salva os arquivos log no diretório C pasta:
jdbc: databricks://localhost:11000;LogLevel=6;LogPath=C:\\temp
-
Reinicie o aplicativo JDBC e reconecte-se ao servidor para aplicar as configurações.
Outras propriedades do recurso
As propriedades a seguir ativam o recurso no driverDatabricks JDBC (OSS). As propriedades não diferenciam maiúsculas de minúsculas.
Propriedade | Valor padrão | Descrição |
---|---|---|
|
| Se definido como |
|
| Se definido como |
| `` | A lista separada por vírgulas de caminhos locais permitidos para downloads e upload de arquivos do UC Volume Ingestion. Os caminhos também incluem subdiretórios. Consulte gerenciar arquivos usando volumes. |
gerenciar arquivos usando volumes
Databricks oferece recursos de ingestão em massa (upload/download/remove) usando volumes Unity Catalog, permitindo que os usuários transfiram conjuntos de dados de e para arquivos locais, como arquivos CSV. Consulte O que são volumes do Unity Catalog? Para ativar as operações de volume do Unity Catalog, defina a propriedade de conexão VolumeOperationAllowedLocalPaths
como uma lista separada por vírgulas de caminhos locais permitidos para as operações de volume.
O Unity Catalog deve estar ativado para usar esse recurso. Funcionalidade semelhante está disponível usando a interface do usuário do Databricks. Consulte Fazer upload de arquivos para um volume do Unity Catalog.
O comando de ingestão Unity Catalog são declarações SQL. Os exemplos abaixo demonstram as operações PUT, GET e REMOVE.
Fazer upload de um arquivo local
Para upload um arquivo local /tmp/test.csv
em um caminho de volume Unity Catalog como /Volumes/main/default/e2etests/file1.csv
, use as operações PUT:
PUT '/tmp/test.csv' INTO '/Volumes/main/default/e2etests/file1.csv' OVERWRITE
baixar um arquivo
Para download um arquivo do caminho /Volumes/main/default/e2etests/file1.csv
do volume Unity Catalog em um arquivo local /tmp/test.csv
, use as operações GET:
GET '/Volumes/main/default/e2etests/file1.csv' TO '/tmp/test.csv'
Excluir um arquivo
Para excluir um arquivo com um caminho de volume Unity Catalog /Volumes/main/default/e2etests/file1.csv
, use as operações REMOVE:
REMOVE '/Volumes/main/default/e2etests/file1.csv'
Telemetria
A telemetria permite que a Databricks simplifique a depuração e ofereça solução de problemas em tempo hábil por meio da coleta:
- Detalhes do ambiente do cliente (versão do driver, tempo de execução, detalhes do sistema operacional)
- Configurações de conexão JDBC (exclui quaisquer dados de PII)
- operações medições de latência
- Formato do resultado da execução (JSON em linha, Arrow, etc.)
- tipos de operações (consulta de execução, consulta de metadados, operações de volume)
- Dados de classificação de erros
- Contagens de novas tentativas
Databricks mantém padrões rígidos de privacidade, garantindo a não coleta de conteúdo de consultas, resultados ou informações de identificação pessoal (PII).