create_streaming_table
create_streaming_table()
関数を使用して、apply_changes()、apply_changes_from_snapshot()、@append_flow 出力レコードなど、ストリーミング操作によって出力されるレコードのターゲット テーブルを作成します。
create_target_table()
関数とcreate_streaming_live_table()
関数は非推奨です。Databricksでは、create_streaming_table()
関数を使用するように既存のコードを更新することをお勧めします。
構文
import dlt
dlt.create_streaming_table(
name = "<table-name>",
comment = "<comment>",
spark_conf={"<key>" : "<value", "<key" : "<value>"},
table_properties={"<key>" : "<value>", "<key>" : "<value>"},
path="<storage-location-path>",
partition_cols=["<partition-column>", "<partition-column>"],
cluster_by = ["<clustering-column>", "<clustering-column>"],
schema="schema-definition",
expect_all = {"<key>" : "<value", "<key" : "<value>"},
expect_all_or_drop = {"<key>" : "<value", "<key" : "<value>"},
expect_all_or_fail = {"<key>" : "<value", "<key" : "<value>"},
row_filter = "row-filter-clause"
)
パラメーター
パラメーター | タイプ | 説明 |
---|---|---|
|
| 必須。 テーブル名。 |
|
| テーブルの説明。 |
|
| このクエリを実行するための Spark 構成の一覧 |
|
| テーブルのテーブル プロパティの |
|
| テーブル・データのストレージ・ロケーション。設定されていない場合は、テーブルを含むスキーマの管理ストレージの場所を使用します。 |
|
| テーブルのパーティション分割に使用する 1 つ以上のカラムのリスト。 |
|
| テーブルでリキッドクラスタリングを有効にし、クラスタリングキーとして使用する列を定義します。 「Deltaテーブルにリキッドクラスタリングを使用する」を参照してください。 |
|
| テーブルのスキーマ定義。スキーマは、SQL DDL 文字列として、または Python |
|
| テーブルのデータ品質制約。期待値デコレーター関数と同じ動作を提供し、同じ構文を使用しますが、パラメーターとして実装されます。 「期待値」を参照してください。 |
|
| (パブリック プレビュー)テーブルの行フィルタ句。行フィルターと列マスクを使用したテーブルのパブリッシュを参照してください。 |