メインコンテンツまでスキップ

パーティション変換関数: タイムスタンプと日付を変換して、データを年ごとに分割します。Spark Connect をサポートします。

警告

4.0.0 では非推奨です。代わりにpartitioning.yearsを使用してください。

構文

Python
from pyspark.databricks.sql import functions as dbf

dbf.years(col=<col>)

パラメーター

パラメーター

Type

説明

col

pyspark.sql.Column または str

作業対象となる日付またはタイムスタンプの列。

戻り値

pyspark.sql.Column: 年ごとに分割されたデータ。

Python
df.writeTo("catalog.db.table").partitionedBy(
years("ts")
).createOrReplace()
注記

この関数は、DataFrameWriterV2 のpartitionedByメソッドと組み合わせてのみ使用できます。