メインコンテンツまでスキップ

Delta Live Tables (DLT) はどうなったのでしょうか?

以前はDelta Live Tables ( DLT ) として知られていた製品は、 LakeFlow Spark宣言型パイプライン (SDP) に更新されました。 以前にDLTを使用したことがある場合、 LakeFlow Spark宣言型パイプラインを使用するために移行する必要はありません。コードは引き続き SDP で動作します。 現在および将来において、 LakeFlow Spark宣言型パイプラインをより有効に活用するため、およびApache Spark 宣言型パイプライン ( Apache Spark 4.1 以降) との互換性を導入するために行うことができる変更があります。

Python コードでは、 import dltへの参照をfrom pyspark import pipelines as dpに置き換えることができますが、次の変更も必要です。

  • @dlt @dpに置き換えられます。
  • @tableデコレータはストリーミング テーブルの作成に使用され、新しい@materialized_viewデコレータはマテリアライズドビューの作成に使用されます。
  • @view 現在は@temporary_viewです。

Python API名の変更と、 LakeFlow SDP とApache Spark 宣言型パイプラインの違いの詳細については、 @dltはどうなったの?」を参照してください。パイプラインPythonリファレンスに記載されています。

注記

Databricks には DLT の名前への参照がまだいくつか残っています。Lakeflow Spark宣言型パイプラインのクラシック SKU は引き続きDLTで始まり、名前にdltが含まれるイベント ログ スキーマは変更されていません。 名前にdlt使用していたPython APIs引き続き使用できますが、 Databricks新しい名前に移行することをお勧めします。

もっと詳しく知る