メインコンテンツまでスキップ

unix_タイムスタンプ

時刻の文字列を指定されたパターン ('yyyy-MM-dd HH:mm) で変換しますデフォルトのタイムゾーンとデフォルトのロケールを使用して、デフォルトのタイムスタンプ (秒単位) から Unix タイムスタンプ (秒単位) に変換し、失敗した場合は null を返します。timestampが None の場合、現在のタイムスタンプを返します。

対応する Databricks SQL 関数については、 unix_timestamp関数を参照してください。

構文

Python
import pyspark.sql.functions as sf

# Returns current timestamp
sf.unix_timestamp()

# With timestamp
sf.unix_timestamp(timestamp=<timestamp>)

# With timestamp and format
sf.unix_timestamp(timestamp=<timestamp>, format=<format>)

パラメーター

パラメーター

Type

説明

timestamp

pyspark.sql.Column または str

オプション。文字列値のタイムスタンプ。

format

str

オプション。変換に使用する代替形式(デフォルト: yyyy-MM-dd HH:mm)。

戻り値

pyspark.sql.Column: 長整数としての Unix 時間。

例 1 : UNIX で現在のタイムスタンプを返します。

Python
import pyspark.sql.functions as sf
spark.range(1).select(sf.unix_timestamp()).show()
Output
+----------+
| unix_time|
+----------+
|1702018137|
+----------+

例2 : デフォルトの形式「yyyy-MM-dd HH:mm」を使用する' はタイムスタンプ文字列を解析します。

Python
import pyspark.sql.functions as sf
df = spark.createDataFrame([('2015-04-08 12:12:12',)], ['ts'])
df.select('*', sf.unix_timestamp('ts')).show()
Output
+-------------------+---------------------------------------+
| ts|unix_timestamp(ts, yyyy-MM-dd HH:mm:ss)|
+-------------------+---------------------------------------+
|2015-04-08 12:12:12| 1428520332|
+-------------------+---------------------------------------+

例 3 : ユーザー指定の形式「yyyy-MM-dd」を使用して、タイムスタンプ文字列を解析します。

Python
import pyspark.sql.functions as sf
df = spark.createDataFrame([('2015-04-08',)], ['dt'])
df.select('*', sf.unix_timestamp('dt', 'yyyy-MM-dd')).show()
Output
+----------+------------------------------+
| dt|unix_timestamp(dt, yyyy-MM-dd)|
+----------+------------------------------+
|2015-04-08| 1428476400|
+----------+------------------------------+