serverless compute notas sobre a versão
Aplica-se a: AWS
GCP
Esta seção inclui notas sobre a versão para serverless compute. As notas sobre a versão são organizadas por ano e semana do ano. serverless compute sempre executa usando a versão mais recente listada aqui.
Versão 17.1
19 de agosto de 2025
Esta versão compute serverless corresponde aproximadamente ao Databricks Runtime 17.1.
Novo recurso
- Uso de memória reduzido para esquemas amplos no gravador Photon : melhorias foram feitas no mecanismo Photon que reduzem significativamente o uso de memória para esquemas amplos, abordando cenários que anteriormente resultavam em erros de falta de memória.
Mudanças de comportamento
-
Erro lançado para restrições
CHECKinválidas : o SAP Databricks agora lança umAnalysisExceptionse uma expressão de restriçãoCHECKnão puder ser resolvida durante a validação da restrição. -
O conector Pulsar não expõe mais o Bouncy Castle : a biblioteca Bouncy Castle agora está sombreada no conector Pulsar para evitar conflitos de classpath. Como resultado, Spark Job não pode mais acessar
org.bouncycastle.*classes do conector. Se o seu código depende do Bouncy Castle, instale a biblioteca manualmente em um ambiente serverless .
ambiente sem servidor versão 4
13 de agosto de 2025
A versão 4 do ambiente agora está disponível no seu Notebook e Job serverless . Esta versão do ambiente inclui atualizações de biblioteca e atualizações de API.
Versão 17.0
24 de julho de 2025
Esta versão serverless compute corresponde aproximadamente a Databricks Runtime 17.0.
Novo recurso
-
SQL Suporte a procedimentos : os scripts do site SQL agora podem ser encapsulados em um procedimento armazenado como um ativo reutilizável no site Unity Catalog. O senhor pode criar um procedimento usando o comando CREATE PROCEDURE e, em seguida, chamá-lo usando o comando CALL.
-
Defina uma default colação para SQL funções : O uso da nova cláusula
DEFAULT COLLATIONno comando CREATE FUNCTION define a colação default usada para os parâmetrosSTRING, o tipo de retorno e os literaisSTRINGno corpo da função. -
Suporte a expressões de tabelas comuns recursivas (rCTE) : O SAP Databricks agora suporta a navegação de expressões de tabelas comuns recursivas (rCTEs) de uso de dados hierárquicos. Use um CTE autorreferenciado com
UNION ALLpara acompanhar a relação recursiva. -
O PySpark e o Spark Connect agora suportam a API DataFrames
df.mergeInto: O PySpark e o Spark Connect agora suportam a APIdf.mergeInto. -
Suporte
ALL CATALOGSemSHOWSCHEMAS : A sintaxeSHOW SCHEMASfoi atualizada para aceitarALL CATALOGS, permitindo que você repita em todos os catálogos ativos que suportam namespaces. Os atributos de saída agora incluem uma colunacatalogindicando o catálogo do namespace correspondente. -
O Liquid clustering agora compacta os vetores de exclusão com mais eficiência : as tabelas Delta com o Liquid clustering agora aplicam as alterações físicas dos vetores de exclusão com mais eficiência quando o
OPTIMIZEestá em execução. -
Permitir expressões não determinísticas em valores de colunas
UPDATE/INSERTpara operaçõesMERGE: O SAP Databricks agora permite o uso de expressões não determinísticas em valores de coluna atualizados e inseridos de operaçõesMERGE. Por exemplo, agora você pode gerar valores dinâmicos ou aleatórios para colunas usando expressões comorand(). -
Altere Delta merge Python APIs para retornar DataFrame em vez de Unit : O Python
MERGEAPIs (comoDeltaMergeBuilder) agora também retorna um DataFrame como o SQL API faz, com os mesmos resultados.