時間
パーティション変換関数: タイムスタンプを変換してデータを時間単位で分割します。Spark Connect をサポートします。
警告
4.0.0 では非推奨です。代わりにpartitioning.hoursを使用してください。
構文
Python
from pyspark.databricks.sql import functions as dbf
dbf.hours(col=<col>)
パラメーター
パラメーター | Type | 説明 |
|---|---|---|
|
| 作業対象となる日付またはタイムスタンプの列。 |
戻り値
pyspark.sql.Column: 時間ごとに分割されたデータ。
例
Python
df.writeTo("catalog.db.table").partitionedBy(
hours("ts")
).createOrReplace()
注記
この関数は、DataFrameWriterV2 のpartitionedByメソッドと組み合わせてのみ使用できます。