Pular para o conteúdo principal

O que aconteceu com as Delta Live Tables (DLT)?

O produto anteriormente conhecido como Delta Live Tables (DLT) foi atualizado para LakeFlow Spark Declarative pipeline (SDP). Se você já utilizou DLT anteriormente, não é necessária nenhuma migração para usar o pipeline declarativo LakeFlow Spark : seu código ainda funcionará no SDP. Existem alterações que você pode fazer para melhor aproveitar o pipeline declarativo do LakeFlow Spark , tanto agora quanto no futuro, bem como para introduzir compatibilidade com o pipeline declarativo Apache Spark™ (a partir do Apache Spark 4.1).

Em código Python, referências a import dlt podem ser substituídas por from pyspark import pipelines as dp, o que também requer as seguintes alterações:

  • @dlt é substituído por @dp.
  • O decorador @table agora é usado para criar tabelas de transmissão e o novo decorador @materialized_view é usado para criar visão materializada.
  • @view agora é @temporary_view.

Para obter mais detalhes sobre as mudanças de nome da API Python e as diferenças entre o pipeline LakeFlow SDP e o pipeline declarativo Apache Spark , consulte O que aconteceu com @dlt? na referência Python do pipeline.

nota

Ainda existem algumas referências ao nome DLT no Databricks. O SKU clássico para o pipeline LakeFlow Spark Declarative ainda começa com DLT e os esquemas log de eventos com dlt no nome não foram alterados. APIs Python que usavam dlt no nome ainda podem ser usadas, mas a Databricks recomenda a migração para os novos nomes.

Saber mais