メインコンテンツまでスキップ

create_streaming_table

create_streaming_table() 関数を使用して、apply_changes()、apply_changes_from_snapshot()、@append_flow 出力レコードなど、ストリーミング操作によって出力されるレコードのターゲット テーブルを作成します。

注記

create_target_table()関数とcreate_streaming_live_table()関数は非推奨です。Databricksでは、create_streaming_table()関数を使用するように既存のコードを更新することをお勧めします。

構文

Python
import dlt

dlt.create_streaming_table(
name = "<table-name>",
comment = "<comment>",
spark_conf={"<key>" : "<value", "<key" : "<value>"},
table_properties={"<key>" : "<value>", "<key>" : "<value>"},
path="<storage-location-path>",
partition_cols=["<partition-column>", "<partition-column>"],
cluster_by = ["<clustering-column>", "<clustering-column>"],
schema="schema-definition",
expect_all = {"<key>" : "<value", "<key" : "<value>"},
expect_all_or_drop = {"<key>" : "<value", "<key" : "<value>"},
expect_all_or_fail = {"<key>" : "<value", "<key" : "<value>"},
row_filter = "row-filter-clause"
)

パラメーター

パラメーター

タイプ

説明

name

str

必須。 テーブル名。

comment

str

テーブルの説明。

spark_conf

dict

このクエリを実行するための Spark 構成の一覧

table_properties

dict

テーブルのテーブル プロパティdict

path

str

テーブル・データのストレージ・ロケーション。設定されていない場合は、テーブルを含むスキーマの管理ストレージの場所を使用します。

partition_cols

list

テーブルのパーティション分割に使用する 1 つ以上のカラムのリスト。

cluster_by

list

テーブルでリキッドクラスタリングを有効にし、クラスタリングキーとして使用する列を定義します。 「Deltaテーブルにリキッドクラスタリングを使用する」を参照してください。

schema

str または StructType

テーブルのスキーマ定義。スキーマは、SQL DDL 文字列として、または Python StructTypeで定義できます。

expect_allexpect_all_or_dropexpect_all_or_fail

dict

テーブルのデータ品質制約。期待値デコレーター関数と同じ動作を提供し、同じ構文を使用しますが、パラメーターとして実装されます。 「期待値」を参照してください。

row_filter

str

(パブリック プレビュー)テーブルの行フィルタ句。行フィルターと列マスクを使用したテーブルのパブリッシュを参照してください。