Pular para o conteúdo principal

Databricks SQL notas sobre a versão

Aplica-se a: marque sim AWS marque sim GCP marque sim Azure

Os seguintes recursos e melhorias do Databricks SQL foram lançados em 2025.

Novembro de 2025

Os alertasDatabricks SQL agora estão em versão prévia.

14 de novembro de 2025

A versão mais recente do Databricks SQL Alert, com uma nova experiência de edição, já está em versão prévia.

Correção de visualização do Editor SQL

6 de novembro de 2025

Corrigido um problema em que as dicas de ferramentas ficavam ocultas atrás da legenda nas visualizações do Notebook e do Editor SQL.

Outubro de 2025

A versão 2025.35 do Databricks SQL já está disponível em versão prévia.

30 de outubro de 2025

A versão 2025.35 do Databricks SQL já está disponível no canal de pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, alterações de comportamento e correções de erros.

EXECUTE IMMEDIATE usando expressões constantes

Agora você pode passar expressões constantes como strings SQL e como argumentos para marcadores de parâmetros em instruções EXECUTE IMMEDIATE .

LIMIT ALL suporte para CTEs recursivas

Agora você pode usar LIMIT ALL para remover a restrição de tamanho total em expressões de tabela comuns recursivas (CTEs).

Suporte à funçãost_dump

Agora você pode usar a função st_dump para obter uma matriz contendo as geometrias individuais da geometria de entrada.

Agora há suporte para funções de anel interno de polígonos.

Agora você pode usar as seguintes funções para trabalhar com anéis internos de polígonos:

  • st_numinteriorringsObtenha o número de limites internos (anéis) de um polígono.
  • st_interiorringnExtrai o n-ésimo contorno interno de um polígono e o retorna como uma linha.

Adicione a coluna de metadados a DESCRIBE QUERY e DESCRIBE TABLE

O SAP Databricks agora inclui uma coluna de metadados na saída de DESCRIBE QUERY e DESCRIBE TABLE para metadados semânticos.

Para DESCRIBE QUERY, ao descrever uma consulta com a visão métricas, os metadados semânticos se propagam pela consulta se as dimensões forem referenciadas diretamente e as medidas usarem a função MEASURE() .

Para DESCRIBE TABLE, a coluna de metadados aparece apenas para a visualização métricas, não para outros tipos de tabela.

alteração do modo padrão para o comando FSCK REPAIR TABLE

O comando FSCK REPAIR TABLE agora inclui um reparo inicial de metadados o passo que valida pontos de verificação e valores de partição antes de remover referências a arquivos de dados ausentes.

Tratamento correto de estruturas nulas ao remover colunas NullType

Ao gravar em tabelas Delta, o SAP Databricks agora preserva corretamente os valores nulos da estrutura ao remover colunas NullType do esquema. Anteriormente, estruturas nulas eram incorretamente substituídas por valores de estrutura não nulos, onde todos os campos eram definidos como nulos.

Nova experiência de edição de alertas

20 de outubro de 2025

A criação ou edição de um alerta agora é aberta no novo editor com váriastab , proporcionando um fluxo de trabalho de edição unificado.

Correção de visualizações

9 de outubro de 2025

A seleção de legenda agora funciona corretamente para gráficos com nomes de séries com alias no editor SQL e no Notebook.

Setembro de 2025

A versão 2025.30 do Databricks SQL já está disponível em versão prévia.

25 de setembro de 2025

A versão 2025.30 do Databricks SQL já está disponível no canal de pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, alterações de comportamento e correções de erros.

As ordenações baseadas em UTF-8 agora suportam o operador LIKE.

Agora você pode usar LIKE com colunas que tenham uma das seguintes ordenações habilitadas: UTF8_Binary, UTF8_Binary_RTRIM, UTF8_LCASE, UTF8_LCASE_RTRIM.

A funçãoST_ExteriorRing agora é suportada.

Agora você pode usar a função ST_ExteriorRing para extrair o contorno externo de um polígono e retorná-lo como uma linha.

Declare várias variáveis de sessão ou locais em uma única instrução DECLARE

Agora você pode declarar várias variáveis de sessão ou locais do mesmo tipo e valor default em uma única instrução DECLARE .

Suporte à palavra-chave TEMPORARY para criação view de métricas

Agora você pode usar a palavra-chave TEMPORARY ao criar uma view de métricas. As métricas temporárias são visíveis apenas na sessão que as criou e desaparecem quando a sessão termina.

DESCRIBE CONNECTION mostra as configurações de ambiente para conexões JDBC

O SAP Databricks agora inclui configurações de ambiente definidas pelo usuário na saída DESCRIBE CONNECTION para conexões JDBC que suportam drivers personalizados e execução isolada. Os demais tipos de conexão permanecem inalterados.

Resultados corretos para split com regex vazia e limite positivo

O SAP Databricks agora retorna resultados corretos ao usar split function com uma expressão regular vazia e um limite positivo. Anteriormente, a função truncava incorretamente as strings restantes em vez de incluí-las no último elemento.

Corrigir o tratamento de erros url_decode e try_url_decode no Photon

No Photon, try_url_decode() e url_decode() com failOnError = false agora retornam NULL para strings codificadas em URL inválidas em vez de falhar na consulta.

Agosto de 2025

A configuração padrão do armazém agora está disponível na versão prévia.

28 de agosto de 2025

Defina um warehouse default que será selecionado automaticamente no seletor compute no editor SQL , no alerta e no Catalog Explorer. Usuários individuais podem substituir essa configuração selecionando um depósito diferente antes de executar uma consulta. Eles também podem definir seu próprio warehouse default em nível de usuário para aplicar em suas sessões.

A versão 2025.25 do Databricks SQL está sendo lançada no Current

21 de agosto de 2025

A versão 2025.25 do Databricks SQL será implementada gradualmente no canal Current entre 20 de agosto de 2025 e 28 de agosto de 2025. Ver recurso em 2025.25.

O Databricks SQL versão 2025.25 já está disponível em versão prévia.

14 de agosto de 2025

A versão 2025.25 do Databricks SQL já está disponível no canal de visualização . Revise a seção a seguir para saber mais sobre novos recursos e mudanças comportamentais.

Expressões de tabela comuns recursivas (rCTE) geralmente estão disponíveis.

Expressões de tabela comuns recursivas (rCTEs) estão geralmente disponíveis. Navegue hierarquicamente por uma CTE autorreferencial com UNION ALL para seguir a relação recursiva.

Agora você pode definir uma ordenação default para esquemas e catálogos. Isso permite que você defina uma ordenação que se aplica a todos os objetos criados dentro do esquema ou catálogo, garantindo um comportamento de ordenação consistente em todos os seus dados.

Suporte para expressões SQL espaciais e tipos de dados GEOMETRY e GEOGRAPHY.

Agora você pode armazenar dados geoespaciais em colunas integradas GEOMETRY e GEOGRAPHY para melhor desempenho de consultas espaciais. Esta versão adiciona mais de 80 novas expressões SQL espaciais, incluindo funções para importar, exportar, medir, construir, editar, validar, transformar e determinar relacionamentos topológicos com junção espacial.

Suporte para agrupamento default em nível de esquema e catálogo

Agora você pode definir uma ordenação default para esquemas e catálogos. Isso permite que você defina uma ordenação que se aplica a todos os objetos criados dentro do esquema ou catálogo, garantindo um comportamento de ordenação consistente em todos os seus dados.

Melhor tratamento de opções JSON com VARIANT

As funções from_json e to_json agora aplicam corretamente as opções JSON ao trabalhar com esquemas VARIANT de nível superior. Isso garante um comportamento consistente com outros tipos de dados suportados.

Suporte para sintaxe TIMESTAMP WITHOUT TIME ZONE

Agora você pode especificar TIMESTAMP WITHOUT TIME ZONE em vez de TIMESTAMP_NTZ. Essa alteração melhora a compatibilidade com o SQL Standard.

Problema de correlação de subconsulta resolvido

O SAP Databricks não correlaciona mais incorretamente expressões agregadas semanticamente iguais entre uma subconsulta e sua consulta externa. Anteriormente, isso podia levar a resultados de consulta incorretos.

Erro lançado para restrições CHECK inválidas

O SAP Databricks agora lança um AnalysisException se uma expressão de restrição CHECK não puder ser resolvida durante a validação da restrição.

O novo editor SQL está disponível ao público em geral

14 de agosto de 2025

O novo editor SQL já está disponível para o público em geral. O novo editor SQL fornece um ambiente de criação unificado com suporte para múltiplos resultados de instruções, histórico de execução em linha, colaboração em tempo real, integração aprimorada Databricks Assistant e recursos adicionais de produtividade.

Julho de 2025

Intervalos de datas predefinidos para parâmetros no editor SQL

31 de julho de 2025

No novo editor SQL, agora o senhor pode escolher entre intervalos de datas predefinidos, como This week (Esta semana ), Last 30 days (Últimos 30 dias ) ou Last year (Último ano) , ao usar parâmetros de carimbo de data/hora, data e intervalo de datas. Essas predefinições agilizam a aplicação de filtros de tempo comuns sem inserir datas manualmente.

Histórico de execução inline no editor SQL

24 de julho de 2025

O histórico de execução em linha agora está disponível no novo editor SQL, permitindo que o senhor acesse rapidamente os resultados anteriores sem reexecutar as consultas. Consulte facilmente execuções anteriores, navegue diretamente para perfis de consultas anteriores ou compare tempos e status de execução - tudo dentro do contexto da consulta atual.

O Databricks SQL versão 2025.20 já está disponível na versão atual

17 de julho de 2025

A versão 2025.20 do Databricks SQL está sendo lançada gradualmente no canal Current . Para obter informações sobre recursos e atualizações nesta versão, consulte 2025.20 recurso.

Atualizações do editor SQL

17 de julho de 2025

  • Melhorias nos parâmetros nomeados: agora há suporte para parâmetros de intervalo de datas e seleção múltipla.

  • Atualização da disposição do cabeçalho no editor SQL: O botão de execução e o seletor de catálogos foram movidos para o cabeçalho, criando mais espaço vertical para escrever consultas.

Git suporte para alerta

17 de julho de 2025

Agora o senhor pode usar as pastas Databricks Git para rastrear e gerenciar as alterações no alerta. Para rastrear alertas com Git, coloque-os em uma pasta Databricks Git . Os alertas recém-clonados só aparecem na página da lista de alertas ou no site API depois que um usuário interage com eles. Eles têm pausa programar e precisam ser retomados explicitamente pelos usuários.

A versão 2025.20 do Databricks SQL já está disponível em versão prévia.

3 de julho de 2025

O Databricks SQL versão 2025.20 já está disponível no canal Preview . Analise a seção a seguir para saber mais sobre novos recursos e mudanças de comportamento.

Suporte a procedimentos SQL

Os scripts SQL agora podem ser encapsulados em um procedimento armazenado como um ativo reutilizável no Unity Catalog. O senhor pode criar um procedimento usando o comando CREATE PROCEDURE e, em seguida, chamá-lo usando o comando CALL.

Definir um agrupamento default para SQL Functions

O uso da nova cláusula DEFAULT COLLATION no comando CREATE FUNCTION define o agrupamento default usado para os parâmetros STRING, o tipo de retorno e os literais STRING no corpo da função.

Suporte para expressões de tabela comuns recursivas (RCTE)

O SAP Databricks agora suporta a navegação de expressões de tabelas comuns recursivas (rCTEs) de uso de dados hierárquicos. Use um CTE autorreferenciado com UNION ALL para acompanhar a relação recursiva.

Suporte ALL CATALOGS em SHOW SCHEMAS

A sintaxe SHOW SCHEMAS foi atualizada para aceitar a seguinte sintaxe:

SHOW SCHEMAS [ { FROM | IN } { catalog_name | ALL CATALOGS } ] [ [ LIKE ] pattern ]

Quando ALL CATALOGS é especificado em uma consulta SHOW, a execução percorre todos os catálogos ativos que suportam namespaces usando o gerenciador de catálogos (DSv2). Para cada catálogo, ele inclui os namespaces de nível superior.

Os atributos de saída e o esquema do comando foram modificados para adicionar uma coluna catalog indicando o catálogo do namespace correspondente. A nova coluna é adicionada ao final dos atributos de saída, conforme mostrado abaixo:

Saída anterior

| Namespace        |
|------------------|
| test-namespace-1 |
| test-namespace-2 |

Nova saída

| Namespace        | Catalog        |
|------------------|----------------|
| test-namespace-1 | test-catalog-1 |
| test-namespace-2 | test-catalog-2 |

O Liquid clustering agora compacta vetores de deleção com mais eficiência

Delta As tabelas com o Liquid clustering agora aplicam alterações físicas de vetores de exclusão com mais eficiência quando o OPTIMIZE está em execução.

Permitir expressões não determinísticas nos valores das colunas UPDATE/INSERT para operações MERGE

O SAP Databricks agora permite o uso de expressões não determinísticas em valores de coluna atualizados e inseridos de operações MERGE. No entanto, expressões não determinísticas nas condições das declarações MERGE não são suportadas.

Por exemplo, agora você pode gerar valores dinâmicos ou aleatórios para colunas:

MERGE INTO target USING source
ON target.key = source.key
WHEN MATCHED THEN UPDATE SET target.value = source.value + rand()

Isso pode ser útil para a privacidade dos dados, ofuscando os dados reais e preservando as propriedades dos dados (como valores médios ou outras colunas de cálculo).

Suporte à palavra-chave VAR para declarar e eliminar variáveis SQL

A sintaxe SQL para declarar e eliminar variáveis agora suporta a palavra-chave VAR, além de VARIABLE. Essa alteração unifica a sintaxe em todas as operações relacionadas a variáveis, o que melhora a consistência e reduz a confusão para os usuários que já usam VAR ao definir variáveis.

Junho de 2025

Databricks SQL atualizações de mecanismos sem servidor

11 de junho de 2025

As seguintes atualizações de motor estão sendo lançadas globalmente, com a disponibilidade se expandindo para todas as regiões nas próximas semanas.

  • Menor latência : cargas de trabalho mistas agora são executadas mais rapidamente, com uma melhoria de até 25%. A atualização é aplicada automaticamente ao armazenamento serverless SQL sem custo adicional ou configuração.
  • Execução preditiva de consultas (PQE) : A PQE monitora tarefas em tempo real e ajusta dinamicamente a execução de consultas para ajudar a evitar distorções, derramamentos e trabalho desnecessário.
  • Photon vectorized shuffle : mantém os dados em um formato compacto em colunas, classifica-os no cache de alta velocidade da CPU e processa vários valores simultaneamente usando instruções vetorizadas. Isso melhora a taxa de transferência para cargas de trabalho vinculadas à CPU, como grandes junções e agregações amplas.

Atualizações da interface do usuário

5 de junho de 2025

  • Percepções de consulta : Ao visitar a página Query History agora emite o evento listHistoryQueries. A abertura de um perfil de consulta agora emite o evento getHistoryQuery.