O que aconteceu com as Delta Live Tables (DLT)?
O produto anteriormente conhecido como Delta Live Tables (DLT) foi atualizado para LakeFlow Spark Declarative pipeline (SDP). Se você já utilizou DLT anteriormente, não é necessária nenhuma migração para usar o pipeline declarativo LakeFlow Spark : seu código ainda funcionará no SDP. Existem alterações que você pode fazer para melhor aproveitar o pipeline declarativo do LakeFlow Spark , tanto agora quanto no futuro, bem como para introduzir compatibilidade com o pipeline declarativo Apache Spark™ (a partir do Apache Spark 4.1).
Em código Python, referências a import dlt podem ser substituídas por from pyspark import pipelines as dp, o que também requer as seguintes alterações:
@dlté substituído por@dp.- O decorador
@tableagora é usado para criar tabelas de transmissão e o novo decorador@materialized_viewé usado para criar visão materializada. @viewagora é@temporary_view.
Para obter mais detalhes sobre as mudanças de nome da API Python e as diferenças entre o pipeline LakeFlow SDP e o pipeline declarativo Apache Spark , consulte O que aconteceu com @dlt? na referência Python do pipeline.
Ainda existem algumas referências ao nome DLT no Databricks. O SKU clássico para o pipeline LakeFlow Spark Declarative ainda começa com DLT e os esquemas log de eventos com dlt no nome não foram alterados. APIs Python que usavam dlt no nome ainda podem ser usadas, mas a Databricks recomenda a migração para os novos nomes.