Pular para o conteúdo principal

serverless compute notas sobre a versão

Aplica-se a: marque sim AWS marque sim GCP

Esta seção inclui notas sobre a versão para serverless compute. As notas sobre a versão são organizadas por ano e semana do ano. serverless compute sempre executa usando a versão mais recente listada aqui.

Versão 17.1

19 de agosto de 2025

Esta versão compute serverless corresponde aproximadamente ao Databricks Runtime 17.1.

Novo recurso

  • Uso de memória reduzido para esquemas amplos no gravador Photon : melhorias foram feitas no mecanismo Photon que reduzem significativamente o uso de memória para esquemas amplos, abordando cenários que anteriormente resultavam em erros de falta de memória.

Mudanças de comportamento

  • Erro lançado para restrições CHECK inválidas : o SAP Databricks agora lança um AnalysisException se uma expressão de restrição CHECK não puder ser resolvida durante a validação da restrição.

  • O conector Pulsar não expõe mais o Bouncy Castle : a biblioteca Bouncy Castle agora está sombreada no conector Pulsar para evitar conflitos de classpath. Como resultado, Spark Job não pode mais acessar org.bouncycastle.* classes do conector. Se o seu código depende do Bouncy Castle, instale a biblioteca manualmente em um ambiente serverless .

ambiente sem servidor versão 4

13 de agosto de 2025

A versão 4 do ambiente agora está disponível no seu Notebook e Job serverless . Esta versão do ambiente inclui atualizações de biblioteca e atualizações de API.

Versão 17.0

24 de julho de 2025

Esta versão serverless compute corresponde aproximadamente a Databricks Runtime 17.0.

Novo recurso

  • SQL Suporte a procedimentos : os scripts do site SQL agora podem ser encapsulados em um procedimento armazenado como um ativo reutilizável no site Unity Catalog. O senhor pode criar um procedimento usando o comando CREATE PROCEDURE e, em seguida, chamá-lo usando o comando CALL.

  • Defina uma default colação para SQL funções : O uso da nova cláusula DEFAULT COLLATION no comando CREATE FUNCTION define a colação default usada para os parâmetros STRING, o tipo de retorno e os literais STRING no corpo da função.

  • Suporte a expressões de tabelas comuns recursivas (rCTE) : O SAP Databricks agora suporta a navegação de expressões de tabelas comuns recursivas (rCTEs) de uso de dados hierárquicos. Use um CTE autorreferenciado com UNION ALL para acompanhar a relação recursiva.

  • O PySpark e o Spark Connect agora suportam a API DataFrames df.mergeInto: O PySpark e o Spark Connect agora suportam a API df.mergeInto.

  • Suporte ALL CATALOGS em SHOW SCHEMAS : A sintaxe SHOW SCHEMAS foi atualizada para aceitar ALL CATALOGS, permitindo que você repita em todos os catálogos ativos que suportam namespaces. Os atributos de saída agora incluem uma coluna catalog indicando o catálogo do namespace correspondente.

  • O Liquid clustering agora compacta os vetores de exclusão com mais eficiência : as tabelas Delta com o Liquid clustering agora aplicam as alterações físicas dos vetores de exclusão com mais eficiência quando o OPTIMIZE está em execução.

  • Permitir expressões não determinísticas em valores de colunas UPDATE /INSERT para operações MERGE: O SAP Databricks agora permite o uso de expressões não determinísticas em valores de coluna atualizados e inseridos de operações MERGE. Por exemplo, agora você pode gerar valores dinâmicos ou aleatórios para colunas usando expressões como rand().

  • Altere Delta merge Python APIs para retornar DataFrame em vez de Unit : O Python MERGE APIs (como DeltaMergeBuilder) agora também retorna um DataFrame como o SQL API faz, com os mesmos resultados.