メインコンテンツまでスキップ

サーバレス コンピュート リリースノート

適用対象: チェックマーク「はい」 AWSチェックマーク「はい」 GCP

このセクションには、サーバレス コンピュートのリリースノートが含まれています。 リリースノートは、年と週ごとに整理されています。サーバレス コンピュートは、常にここに記載されている最新のリリースバージョンを使用して実行します。

バージョン17.1

2025年8月19日

このサーバレス コンピュート リリースは、 Databricks Runtime 17.1 にほぼ対応します。

新機能

  • Photon ライターのワイド スキーマのメモリ使用量の削減 : Photon エンジンが強化され、ワイド スキーマのメモリ使用量が大幅に削減され、以前はメモリ不足エラーが発生していたシナリオに対処できるようになりました。

行動の変化

  • 無効なCHECK制約に対してエラーがスローされました : 制約検証中にCHECK制約式を解決できない場合、SAP Databricks ではAnalysisExceptionがスローされるようになりました。

  • Pulsar コネクタは Bouncy Castle を公開しなくなりました : クラスパスの競合を防ぐために、Bouncy Castle ライブラリが Pulsar コネクタでシェーディングされるようになりました。その結果、Spark ジョブはコネクタからorg.bouncycastle.*クラスにアクセスできなくなります。コードが Bouncy Castle に依存している場合は、サーバレス環境に手動でライブラリをインストールします。

サーバレス環境バージョン4

2025年8月13日

環境バージョン 4 がサーバレス ノートブックとジョブで利用できるようになりました。 この環境バージョンには、ライブラリのアップグレードと API の更新が含まれています。

バージョン 17.0

2025年7月24日

このサーバレスコンピュートリリースは、 Databricks Runtime 17.0にほぼ対応しています。

新機能

  • SQL プロシージャのサポート : SQL スクリプトを、Unity Catalog の再利用可能な資産として格納されているプロシージャにカプセル化できるようになりました。CREATE PROCEDURE コマンドを使用してプロシージャを作成し、CALL コマンドを使用して呼び出すことができます。

  • 設定 する デフォルトの照合順序 SQL関数: CREATE FUNCTION コマンドで新しい DEFAULT COLLATION 句を使用すると、関数本体のパラメーター、戻り値の型、およびSTRINGリテラルに使用されるSTRINGの固定照合順序が定義されます。

  • 再帰的共通テーブル式 (rCTE) のサポート : SAP Databricks では、再帰的共通テーブル式 (rCTE) を使用した階層データのナビゲーションがサポートされるようになりました。自己参照 CTE を UNION ALL で使用して、再帰的な関係を追跡します。

  • PySpark と Spark Connect で DataFrames df.mergeInto API がサポートされるようになりました : PySpark と Spark Connect で df.mergeInto API がサポートされるようになりました。

  • SHOWスキーマでのALL CATALOGSのサポート : SHOW SCHEMAS構文がALL CATALOGSを受け入れるように更新され、名前空間をサポートするすべてのアクティブなカタログを反復処理できるようになります。出力属性には、対応する名前空間のカタログを示す catalog 列が含まれるようになりました。

  • リキッドクラスタリングにより、削除ベクトルの圧縮がより効率的に : リキッドクラスタリングを備えた Delta テーブルは、 OPTIMIZE の実行時に削除ベクトルからの物理的な変更をより効率的に適用するようになりました。

  • MERGE操作の列値のUPDATE/INSERTに非決定論的式を許可 する: SAP Databricks では、MERGE操作の更新および挿入された列値で非決定論的式を使用できるようになりました。たとえば、 rand()などの式を使用して、列の動的値またはランダムな値を生成できるようになりました。

  • MERGE Python APIsDelta Unit ではなく DataFrame を返すように変更 します。Python MERGE APIs ( DeltaMergeBuilderなど) も、SQL API と同じ結果で DataFrame を返すようになりました。