Pular para o conteúdo principal

Databricks SQL notas sobre a versão

Aplica-se a: marque sim AWS marque sim GCP marque sim Azure

Os seguintes recursos Databricks SQL e melhorias foram lançados recentemente.

Março de 2026

A versão 2026.10 do Databricks SQL já está disponível em versão prévia.

26 de março de 2026

A versão 2026.10 do Databricks SQL já está disponível no canal de pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, alterações de comportamento e correções de erros.

Os erros nas métricas de observação não impedem mais a conclusão das consultas.

Erros durante a coleta de métricas de observação não causam mais falhas na execução de consultas. Anteriormente, erros em cláusulas OBSERVE (como divisão por zero) podiam bloquear ou comprometer toda a consulta. Agora, a consulta é concluída com sucesso e o erro é gerado quando você chama observation.get.

Cláusula FILTER para funções agregadas MEASURE

As funções de agregação MEASURE agora suportam cláusulas FILTER. Anteriormente, os filtros eram ignorados silenciosamente.

Gravações otimizadas para operações CRTAS Unity Catalog

As operações CREATE OR REPLACE TABLE AS SELECT (CRTAS) em tabelas particionadas Unity Catalog agora aplicam gravações otimizadas por default, produzindo menos arquivos, porém maiores. Para desativar, defina spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled como false.

Os valores de partição de carimbo de data/hora usam o fuso horário da sessão.

Os valores de partição de carimbo de data/hora agora usam o fuso horário da sessão SQL warehouse . Se você tiver partições com carimbo de data/hora gravadas antes da versão 2025.40 do Databricks SQL, execução SHOW PARTITIONS para verificar os metadados da sua partição antes de gravar novos dados.

DESCRIBE FLOW palavra-chave reservada

O comando DESCRIBE FLOW já está disponível. Se você tiver uma tabela chamada flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow ou DESCRIBE `flow` com crases.

SpatialSQL Boolean set operações

ST_Difference, ST_Intersection e ST_Union usam uma nova implementação com desempenho aproximadamente 2 vezes mais rápido. Geometrias de entrada válidas sempre produzem um resultado e não geram mais erros. Os resultados são normalizados para uma saída consistente e comparável.

Tipos de exceção para SQLSTATE

Os tipos de exceção agora suportam SQLSTATE. Se o seu código analisa exceções por meio de correspondência de strings ou captura tipos específicos de exceção, atualize sua lógica de tratamento de erros.

evolução do esquema com instruções INSERT

Utilize a cláusula WITH SCHEMA EVOLUTION com instruções SQL INSERT para evoluir automaticamente o esquema da tabela de destino durante as operações de inserção. A cláusula é suportada para as formas INSERT INTO, INSERT OVERWRITE e INSERT INTO ... REPLACE . O esquema da tabela Delta Lake de destino é atualizado para acomodar colunas adicionais ou tipos ampliados da origem.

Valores NULL preservados em operações INSERT

INSERT operações com evolução do esquema ou conversão implícita agora preservam valores de struct NULL quando as tabelas de origem e destino têm ordens de campo de struct diferentes.

Função SQL parse_timestamp

A função SQL parse_timestamp analisa strings de timestamp usando múltiplos padrões e execução no mecanismo Photon para melhor desempenho ao analisar timestamps em vários formatos.

max_by e min_by com limite opcional

As funções agregadas max_by e min_by agora aceitam um terceiro argumento opcional limit (até 100.000). Quando fornecidas, as funções retornam uma matriz de até limit valores correspondentes aos maiores (ou menores) valores da expressão de ordenação, simplificando as consultas top-K e bottom-K sem funções de janela ou CTEs.

Funções agregadas vetoriais e escalares

As novas funções SQL operam em vetores ARRAY<FLOAT> para cargas de trabalho de incorporação e similaridade:

Funções agregadas:

  • vector_avg: Retorna a média, elemento por elemento, dos vetores em um grupo.
  • vector_sum: Retorna a soma elemento a elemento dos vetores em um grupo.

Funções escalares:

  • vector_cosine_similarity: Retorna a similaridade de cosseno entre dois vetores.
  • vector_inner_product: Retorna o produto interno (escalar) de dois vetores.
  • vector_l2_distance: Retorna a distância euclidiana (L2) entre dois vetores.
  • vector_norm: Retorna a norma Lp de um vetor (1, 2 ou infinito).
  • vector_normalize: Retorna um vetor normalizado para comprimento unitário.

Suporte a cursores SQL em instruções compostas

Instruções compostas agora suportam processamento de cursor. Use DECLARE CURSOR para definir um cursor e, em seguida, OPEN, FETCH e CLOSE para executar a consulta e consumir as linhas uma de cada vez. Os cursores podem usar marcadores de parâmetros e manipuladores de condições, como NOT FOUND para processamento linha por linha.

Funções de esboço top-k aproximadas

Novas funções permitem construir e combinar esboços aproximados dos K melhores resultados para agregação distribuída dos K melhores resultados:

  • approx_top_k_accumulate: Constrói um esboço por grupo.
  • approx_top_k_combine: mesclar esboços.
  • approx_top_k_estimate: Retorna os K itens principais com contagens estimadas.

funções de esboço de tupla

Novas funções de agregação e escalares para esboço de tuplas oferecem suporte à contagem e agregação distintas em pares key-resumo.

Dependências personalizadas para UDTFs Python Unity Catalog

As funções de tabela definidas pelo usuário (UDTFs) Unity Catalog Python agora podem usar dependências personalizadas para bibliotecas externas, permitindo o uso de pacotes além dos disponíveis no ambiente default SQL warehouse .

Novas funções geoespaciais

As seguintes funções geoespaciais já estão disponíveis:

  • st_estimatesrid: Estima o melhor identificador de referência espacial (SRID) projetado para uma geometria de entrada.
  • st_force2d: Converte uma geografia ou geometria em sua representação 2D.
  • st_nrings: Conta o número total de anéis em um polígono ou multipolígono.
  • st_numpoints: Conta o número de pontos não vazios em uma geografia ou geometria.

Suporte do Photon para funções geoespaciais

As seguintes funções geoespaciais agora são executadas no mecanismo Photon para um desempenho mais rápido: st_difference, st_intersection e st_union.

Fevereiro de 2026

A versão 2025.40 do Databricks SQL está sendo lançada no Current.

23 de fevereiro de 2026

A versão 2025.40 do Databricks SQL está sendo liberada para o canal Current .

A versão 2025.40 do Databricks SQL já está disponível em versão prévia.

11 de fevereiro de 2026

A versão 2025.40 do Databricks SQL já está disponível no canal de pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, alterações de comportamento e correções de erros.

A programação SQL geralmente está disponível.

A programação em SQL agora está disponível para o público em geral. Escreva lógica procedural com SQL, incluindo instruções condicionais, loops, variáveis locais e tratamento de exceções.

Os marcadores de parâmetros agora são suportados em mais contextos SQL.

Agora você pode usar marcadores de parâmetros nomeados (:param) e não nomeados (?) em qualquer lugar onde um valor literal do tipo apropriado seja permitido. Isso inclui instruções DDL como CREATE VIEW v AS SELECT ? AS c1, tipos de coluna como DECIMAL(:p, :s) e comentários como COMMENT ON t IS :comment.

A cláusula IDENTIFIER foi expandida para mais contextos SQL.

A cláusula IDENTIFIER , que converte strings em nomes de objetos SQL, agora é suportada em praticamente todos os contextos onde um identificador é permitido. Combinado com suporte expandido para marcadores de parâmetros e coalescência de strings literais, você pode parametrizar qualquer coisa, desde aliases de coluna (AS IDENTIFIER(:name)) até definições de coluna (IDENTIFIER(:pk) BIGINT NOT NULL).

Coalescência literal de strings suportada em todos os lugares

Literais de strings sequenciais como 'Hello' ' World' agora se coalescem em 'Hello World' em qualquer contexto onde literais de strings são permitidos, incluindo COMMENT 'This' ' is a ' 'comment'.

Nova função BITMAP_AND_AGG

Uma nova função BITMAP_AND_AGG agora está disponível para complementar a biblioteca existente de funções BITMAP .

Novas funções do Theta Sketch para contagens distintas aproximadas

Uma nova biblioteca de funções para operações aproximadas de contagem distinta e conjuntos usando o Datasketches Theta Sketch já está disponível, incluindo theta_sketch_agg, theta_union_agg, theta_intersection_agg e funções relacionadas.

Novas funções KLL Sketch para quantis aproximados

Uma nova biblioteca de funções para construir esboços KLL para cálculo aproximado de quantis já está disponível, incluindo kll_sketch_agg_bigint, kll_sketch_agg_double, kll_sketch_agg_float e funções relacionadas merge e consulta.

Funções de janelaSQL na visualização do motor

Agora você pode usar funções de janela SQL na visualização métricas para calcular totais acumulados, classificações e outros cálculos baseados em janelas.

Novas funções geoespaciais

As seguintes novas funções geoespaciais já estão disponíveis:

  • st_azimuth: Retorna o azimute com base no norte, do primeiro ao segundo ponto, em radianos.
  • st_boundary: Retorna o limite da geometria de entrada.
  • st_closestpoint: Retorna a projeção 2D de um ponto na primeira geometria mais próxima da segunda geometria.
  • st_geogfromewkt: Analisa uma descrição de um texto amplamente conhecido (EWKT) de uma geografia.
  • st_geomfromewkt: Analisa uma descrição de uma geometria no formato Extended Well-Known Text (EWKT).

Suporte de entrada EWKT para funções de geometria e geografia existentes.

As funções try_to_geography, try_to_geometry, to_geography e to_geometry agora aceitam Extended Well-Known Text (EWKT) como entrada.

Desempenho aprimorado para consultas repetidas em tabelas com filtros de linha e máscaras de coluna.

Consultas elegíveis repetidas em tabelas com filtros de linha e máscaras de coluna agora se beneficiam do cache de resultados de consulta aprimorado, resultando em tempos de execução mais rápidos.

Melhor desempenho da função geoespacial

O desempenho join espacial é aprimorado com o suporte join espacial aleatória. As funções st_isvalid, st_makeline e st_makepolygon agora possuem implementações em Photon.

FSCK REPAIR TABLE inclui reparo de metadados por default

FSCK REPAIR TABLE Agora inclui uma etapa inicial de reparo de metadados antes de verificar a existência de arquivos de dados ausentes, permitindo que funcione em tabelas com pontos de verificação corrompidos ou valores de partição inválidos.

A saída do DESCRIBE TABLE inclui a coluna de metadados.

A saída de DESCRIBE TABLE [EXTENDED] agora inclui uma coluna metadata para todos os tipos de tabela. Esta coluna contém metadados semânticos (nome de exibição, formato e sinônimos) definidos na tabela como strings JSON .

Estruturas NULL preservadas em operações de mesclagem, UPDATE e gravação.

Estruturas NULL agora são preservadas como NULL em Delta Lake MERGE, UPDATE, e operações de escrita que incluem conversões de tipo de estrutura. Anteriormente, as estruturas NULL eram expandidas para estruturas com todos os campos definidos como NULL.

Colunas de partição materializadas em arquivos Parquet

As tabelas particionadas do Delta Lake agora materializam as colunas de partição em arquivos de dados Parquet recém-gravados. Anteriormente, os valores de partição eram armazenados apenas nos metadados do log de transações do Delta Lake.

Os valores de partição de carimbo de data/hora respeitam o fuso horário da sessão.

Os valores de partição de carimbo de data/hora agora são ajustados corretamente usando a configuração spark.sql.session.timeZone . Anteriormente, eles eram convertidos incorretamente para UTC usando o fuso horário da JVM.

restrições de viagem do tempo atualizadas

O SAP Databricks agora bloqueia consultas de viagem do tempo além do limite deletedFileRetentionDuration para todas as tabelas. O comando VACUUM ignora o argumento de duração de retenção, exceto quando o valor é 0 horas. Você não pode definir deletedFileRetentionDuration maior que logRetentionDuration.

SHOW TABLES DROPPED respeita a cláusula LIMIT.

SHOW TABLES DROPPED agora respeita corretamente a cláusula LIMIT .

Novembro de 2025

Os alertasDatabricks SQL agora estão em versão prévia.

14 de novembro de 2025

A versão mais recente do Databricks SQL Alert, com uma nova experiência de edição, já está em versão prévia.

Correção de visualização do Editor SQL

6 de novembro de 2025

Corrigido um problema em que as dicas de ferramentas ficavam ocultas atrás da legenda nas visualizações do Notebook e do Editor SQL.

Outubro de 2025

A versão 2025.35 do Databricks SQL já está disponível em versão prévia.

30 de outubro de 2025

A versão 2025.35 do Databricks SQL já está disponível no canal de pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, alterações de comportamento e correções de erros.

EXECUTE IMMEDIATE usando expressões constantes

Agora você pode passar expressões constantes como strings SQL e como argumentos para marcadores de parâmetros em instruções EXECUTE IMMEDIATE .

LIMIT ALL suporte para CTEs recursivas

Agora você pode usar LIMIT ALL para remover a restrição de tamanho total em expressões de tabela comuns recursivas (CTEs).

Suporte à funçãost_dump

Agora você pode usar a função st_dump para obter uma matriz contendo as geometrias individuais da geometria de entrada.

Agora há suporte para funções de anel interno de polígonos.

Agora você pode usar as seguintes funções para trabalhar com anéis internos de polígonos:

  • st_numinteriorringsObtenha o número de limites internos (anéis) de um polígono.
  • st_interiorringnExtrai o n-ésimo contorno interno de um polígono e o retorna como uma linha.

Adicione a coluna de metadados a DESCRIBE QUERY e DESCRIBE TABLE

O SAP Databricks agora inclui uma coluna de metadados na saída de DESCRIBE QUERY e DESCRIBE TABLE para metadados semânticos.

Para DESCRIBE QUERY, ao descrever uma consulta com a visão métricas, os metadados semânticos se propagam pela consulta se as dimensões forem referenciadas diretamente e as medidas usarem a função MEASURE() .

Para DESCRIBE TABLE, a coluna de metadados aparece apenas para a visualização métricas, não para outros tipos de tabela.

alteração do modo padrão para o comando FSCK REPAIR TABLE

O comando FSCK REPAIR TABLE agora inclui um reparo inicial de metadados o passo que valida pontos de verificação e valores de partição antes de remover referências a arquivos de dados ausentes.

Tratamento correto de estruturas nulas ao remover colunas NullType

Ao gravar em tabelas Delta, o SAP Databricks agora preserva corretamente os valores nulos da estrutura ao remover colunas NullType do esquema. Anteriormente, estruturas nulas eram incorretamente substituídas por valores de estrutura não nulos, onde todos os campos eram definidos como nulos.

Nova experiência de edição de alertas

20 de outubro de 2025

A criação ou edição de um alerta agora é aberta no novo editor com váriastab , proporcionando um fluxo de trabalho de edição unificado.

Correção de visualizações

9 de outubro de 2025

A seleção de legenda agora funciona corretamente para gráficos com nomes de séries com alias no editor SQL e no Notebook.

Setembro de 2025

A versão 2025.30 do Databricks SQL já está disponível em versão prévia.

25 de setembro de 2025

A versão 2025.30 do Databricks SQL já está disponível no canal de pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, alterações de comportamento e correções de erros.

As ordenações baseadas em UTF-8 agora suportam o operador LIKE.

Agora você pode usar LIKE com colunas que tenham uma das seguintes ordenações habilitadas: UTF8_Binary, UTF8_Binary_RTRIM, UTF8_LCASE, UTF8_LCASE_RTRIM.

A funçãoST_ExteriorRing agora é suportada.

Agora você pode usar a função ST_ExteriorRing para extrair o contorno externo de um polígono e retorná-lo como uma linha.

Declare várias variáveis de sessão ou locais em uma única instrução DECLARE

Agora você pode declarar várias variáveis de sessão ou locais do mesmo tipo e valor default em uma única instrução DECLARE .

Suporte à palavra-chave TEMPORARY para criação view de métricas

Agora você pode usar a palavra-chave TEMPORARY ao criar uma view de métricas. As métricas temporárias são visíveis apenas na sessão que as criou e desaparecem quando a sessão termina.

DESCRIBE CONNECTION mostra as configurações de ambiente para conexões JDBC

O SAP Databricks agora inclui configurações de ambiente definidas pelo usuário na saída DESCRIBE CONNECTION para conexões JDBC que suportam drivers personalizados e execução isolada. Os demais tipos de conexão permanecem inalterados.

Resultados corretos para split com regex vazia e limite positivo

O SAP Databricks agora retorna resultados corretos ao usar split function com uma expressão regular vazia e um limite positivo. Anteriormente, a função truncava incorretamente as strings restantes em vez de incluí-las no último elemento.

Corrigir o tratamento de erros url_decode e try_url_decode no Photon

No Photon, try_url_decode() e url_decode() com failOnError = false agora retornam NULL para strings codificadas em URL inválidas em vez de falhar na consulta.

Agosto de 2025

A configuração padrão do armazém agora está disponível na versão prévia.

28 de agosto de 2025

Defina um warehouse default que será selecionado automaticamente no seletor compute no editor SQL , no alerta e no Catalog Explorer. Usuários individuais podem substituir essa configuração selecionando um depósito diferente antes de executar uma consulta. Eles também podem definir seu próprio warehouse default em nível de usuário para aplicar em suas sessões.

A versão 2025.25 do Databricks SQL está sendo lançada no Current

21 de agosto de 2025

A versão 2025.25 do Databricks SQL será implementada gradualmente no canal Current entre 20 de agosto de 2025 e 28 de agosto de 2025. Ver recurso em 2025.25.

O Databricks SQL versão 2025.25 já está disponível em versão prévia.

14 de agosto de 2025

A versão 2025.25 do Databricks SQL já está disponível no canal de visualização . Revise a seção a seguir para saber mais sobre novos recursos e mudanças comportamentais.

Expressões de tabela comuns recursivas (rCTE) geralmente estão disponíveis.

Expressões de tabela comuns recursivas (rCTEs) estão geralmente disponíveis. Navegue hierarquicamente por uma CTE autorreferencial com UNION ALL para seguir a relação recursiva.

Agora você pode definir uma ordenação default para esquemas e catálogos. Isso permite que você defina uma ordenação que se aplica a todos os objetos criados dentro do esquema ou catálogo, garantindo um comportamento de ordenação consistente em todos os seus dados.

Suporte para expressões SQL espaciais e tipos de dados GEOMETRY e GEOGRAPHY.

Agora você pode armazenar dados geoespaciais em colunas integradas GEOMETRY e GEOGRAPHY para melhor desempenho de consultas espaciais. Esta versão adiciona mais de 80 novas expressões SQL espaciais, incluindo funções para importar, exportar, medir, construir, editar, validar, transformar e determinar relacionamentos topológicos com junção espacial.

Suporte para agrupamento default em nível de esquema e catálogo

Agora você pode definir uma ordenação default para esquemas e catálogos. Isso permite que você defina uma ordenação que se aplica a todos os objetos criados dentro do esquema ou catálogo, garantindo um comportamento de ordenação consistente em todos os seus dados.

Melhor tratamento de opções JSON com VARIANT

As funções from_json e to_json agora aplicam corretamente as opções JSON ao trabalhar com esquemas VARIANT de nível superior. Isso garante um comportamento consistente com outros tipos de dados suportados.

Suporte para sintaxe TIMESTAMP WITHOUT TIME ZONE

Agora você pode especificar TIMESTAMP WITHOUT TIME ZONE em vez de TIMESTAMP_NTZ. Essa alteração melhora a compatibilidade com o SQL Standard.

Problema de correlação de subconsulta resolvido

O SAP Databricks não correlaciona mais incorretamente expressões agregadas semanticamente iguais entre uma subconsulta e sua consulta externa. Anteriormente, isso podia levar a resultados de consulta incorretos.

Erro lançado para restrições CHECK inválidas

O SAP Databricks agora lança um AnalysisException se uma expressão de restrição CHECK não puder ser resolvida durante a validação da restrição.

O novo editor SQL está disponível ao público em geral

14 de agosto de 2025

O novo editor SQL já está disponível para o público em geral. O novo editor SQL fornece um ambiente de criação unificado com suporte para múltiplos resultados de instruções, histórico de execução em linha, colaboração em tempo real, integração aprimorada Databricks Assistant e recursos adicionais de produtividade.

Julho de 2025

Intervalos de datas predefinidos para parâmetros no editor SQL

31 de julho de 2025

No novo editor SQL, agora o senhor pode escolher entre intervalos de datas predefinidos, como This week (Esta semana ), Last 30 days (Últimos 30 dias ) ou Last year (Último ano) , ao usar parâmetros de carimbo de data/hora, data e intervalo de datas. Essas predefinições agilizam a aplicação de filtros de tempo comuns sem inserir datas manualmente.

Histórico de execução inline no editor SQL

24 de julho de 2025

O histórico de execução em linha agora está disponível no novo editor SQL, permitindo que o senhor acesse rapidamente os resultados anteriores sem reexecutar as consultas. Consulte facilmente execuções anteriores, navegue diretamente para perfis de consultas anteriores ou compare tempos e status de execução - tudo dentro do contexto da consulta atual.

O Databricks SQL versão 2025.20 já está disponível na versão atual

17 de julho de 2025

A versão 2025.20 do Databricks SQL está sendo lançada gradualmente no canal Current . Para obter informações sobre recursos e atualizações nesta versão, consulte 2025.20 recurso.

Atualizações do editor SQL

17 de julho de 2025

  • Melhorias nos parâmetros nomeados: agora há suporte para parâmetros de intervalo de datas e seleção múltipla.

  • Atualização da disposição do cabeçalho no editor SQL: O botão de execução e o seletor de catálogos foram movidos para o cabeçalho, criando mais espaço vertical para escrever consultas.

Git suporte para alerta

17 de julho de 2025

Agora o senhor pode usar as pastas Databricks Git para rastrear e gerenciar as alterações no alerta. Para rastrear alertas com Git, coloque-os em uma pasta Databricks Git . Os alertas recém-clonados só aparecem na página da lista de alertas ou no site API depois que um usuário interage com eles. Eles têm pausa programar e precisam ser retomados explicitamente pelos usuários.

A versão 2025.20 do Databricks SQL já está disponível em versão prévia.

3 de julho de 2025

O Databricks SQL versão 2025.20 já está disponível no canal Preview . Analise a seção a seguir para saber mais sobre novos recursos e mudanças de comportamento.

Suporte a procedimentos SQL

Os scripts SQL agora podem ser encapsulados em um procedimento armazenado como um ativo reutilizável no Unity Catalog. O senhor pode criar um procedimento usando o comando CREATE PROCEDURE e, em seguida, chamá-lo usando o comando CALL.

Definir um agrupamento default para SQL Functions

O uso da nova cláusula DEFAULT COLLATION no comando CREATE FUNCTION define o agrupamento default usado para os parâmetros STRING, o tipo de retorno e os literais STRING no corpo da função.

Suporte para expressões de tabela comuns recursivas (RCTE)

O SAP Databricks agora suporta a navegação de expressões de tabelas comuns recursivas (rCTEs) de uso de dados hierárquicos. Use um CTE autorreferenciado com UNION ALL para acompanhar a relação recursiva.

Suporte ALL CATALOGS em SHOW SCHEMAS

A sintaxe SHOW SCHEMAS foi atualizada para aceitar a seguinte sintaxe:

SHOW SCHEMAS [ { FROM | IN } { catalog_name | ALL CATALOGS } ] [ [ LIKE ] pattern ]

Quando ALL CATALOGS é especificado em uma consulta SHOW, a execução percorre todos os catálogos ativos que suportam namespaces usando o gerenciador de catálogos (DSv2). Para cada catálogo, ele inclui os namespaces de nível superior.

Os atributos de saída e o esquema do comando foram modificados para adicionar uma coluna catalog indicando o catálogo do namespace correspondente. A nova coluna é adicionada ao final dos atributos de saída, conforme mostrado abaixo:

Saída anterior

| Namespace        |
|------------------|
| test-namespace-1 |
| test-namespace-2 |

Nova saída

| Namespace        | Catalog        |
|------------------|----------------|
| test-namespace-1 | test-catalog-1 |
| test-namespace-2 | test-catalog-2 |

O Liquid clustering agora compacta vetores de deleção com mais eficiência

Delta As tabelas com o Liquid clustering agora aplicam alterações físicas de vetores de exclusão com mais eficiência quando o OPTIMIZE está em execução.

Permitir expressões não determinísticas nos valores das colunas UPDATE/INSERT para operações MERGE

O SAP Databricks agora permite o uso de expressões não determinísticas em valores de coluna atualizados e inseridos de operações MERGE. No entanto, expressões não determinísticas nas condições das declarações MERGE não são suportadas.

Por exemplo, agora você pode gerar valores dinâmicos ou aleatórios para colunas:

MERGE INTO target USING source
ON target.key = source.key
WHEN MATCHED THEN UPDATE SET target.value = source.value + rand()

Isso pode ser útil para a privacidade dos dados, ofuscando os dados reais e preservando as propriedades dos dados (como valores médios ou outras colunas de cálculo).

Suporte à palavra-chave VAR para declarar e eliminar variáveis SQL

A sintaxe SQL para declarar e eliminar variáveis agora suporta a palavra-chave VAR, além de VARIABLE. Essa alteração unifica a sintaxe em todas as operações relacionadas a variáveis, o que melhora a consistência e reduz a confusão para os usuários que já usam VAR ao definir variáveis.

Junho de 2025

Databricks SQL atualizações de mecanismos sem servidor

11 de junho de 2025

As seguintes atualizações de motor estão sendo lançadas globalmente, com a disponibilidade se expandindo para todas as regiões nas próximas semanas.

  • Menor latência : cargas de trabalho mistas agora são executadas mais rapidamente, com uma melhoria de até 25%. A atualização é aplicada automaticamente ao armazenamento serverless SQL sem custo adicional ou configuração.
  • Execução preditiva de consultas (PQE) : A PQE monitora tarefas em tempo real e ajusta dinamicamente a execução de consultas para ajudar a evitar distorções, derramamentos e trabalho desnecessário.
  • Photon vectorized shuffle : mantém os dados em um formato compacto em colunas, classifica-os no cache de alta velocidade da CPU e processa vários valores simultaneamente usando instruções vetorizadas. Isso melhora a taxa de transferência para cargas de trabalho vinculadas à CPU, como grandes junções e agregações amplas.

Atualizações da interface do usuário

5 de junho de 2025

  • Percepções de consulta : Ao visitar a página Query History agora emite o evento listHistoryQueries. A abertura de um perfil de consulta agora emite o evento getHistoryQuery.