unix_タイムスタンプ
時刻の文字列を指定されたパターン ('yyyy-MM-dd HH:mm) で変換しますデフォルトのタイムゾーンとデフォルトのロケールを使用して、デフォルトのタイムスタンプ (秒単位) から Unix タイムスタンプ (秒単位) に変換し、失敗した場合は null を返します。timestampが None の場合、現在のタイムスタンプを返します。
対応する Databricks SQL 関数については、 unix_timestamp関数を参照してください。
構文
Python
import pyspark.sql.functions as sf
# Returns current timestamp
sf.unix_timestamp()
# With timestamp
sf.unix_timestamp(timestamp=<timestamp>)
# With timestamp and format
sf.unix_timestamp(timestamp=<timestamp>, format=<format>)
パラメーター
パラメーター | Type | 説明 |
|---|---|---|
|
| オプション。文字列値のタイムスタンプ。 |
|
| オプション。変換に使用する代替形式(デフォルト: yyyy-MM-dd HH:mm)。 |
戻り値
pyspark.sql.Column: 長整数としての Unix 時間。
例
例 1 : UNIX で現在のタイムスタンプを返します。
Python
import pyspark.sql.functions as sf
spark.range(1).select(sf.unix_timestamp()).show()
Output
+----------+
| unix_time|
+----------+
|1702018137|
+----------+
例2 : デフォルトの形式「yyyy-MM-dd HH:mm」を使用する' はタイムスタンプ文字列を解析します。
Python
import pyspark.sql.functions as sf
df = spark.createDataFrame([('2015-04-08 12:12:12',)], ['ts'])
df.select('*', sf.unix_timestamp('ts')).show()
Output
+-------------------+---------------------------------------+
| ts|unix_timestamp(ts, yyyy-MM-dd HH:mm:ss)|
+-------------------+---------------------------------------+
|2015-04-08 12:12:12| 1428520332|
+-------------------+---------------------------------------+
例 3 : ユーザー指定の形式「yyyy-MM-dd」を使用して、タイムスタンプ文字列を解析します。
Python
import pyspark.sql.functions as sf
df = spark.createDataFrame([('2015-04-08',)], ['dt'])
df.select('*', sf.unix_timestamp('dt', 'yyyy-MM-dd')).show()
Output
+----------+------------------------------+
| dt|unix_timestamp(dt, yyyy-MM-dd)|
+----------+------------------------------+
|2015-04-08| 1428476400|
+----------+------------------------------+