最初の値
行のグループのcolの最初の値を返します。ignoreNullsが true に設定されている場合、最初に見つかった null 以外の値を返します。すべての値が null の場合、null が返されます。
構文
Python
from pyspark.sql import functions as sf
sf.first_value(col, ignoreNulls=None)
パラメーター
パラメーター | Type | 説明 |
|---|---|---|
|
| 取り組むターゲットカラム。 |
|
| 最初の値が null の場合、最初の null 以外の値を検索します。 |
戻り値
pyspark.sql.Column: 行のグループに対するcolの値。
例
例1 : nullを無視せずに最初の値を取得する
Python
from pyspark.sql import functions as sf
spark.createDataFrame(
[(None, 1), ("a", 2), ("a", 3), ("b", 8), ("b", 2)], ["a", "b"]
).select(sf.first_value('a'), sf.first_value('b')).show()
Output
+--------------+--------------+
|first_value(a)|first_value(b)|
+--------------+--------------+
| NULL| 1|
+--------------+--------------+
例2 : nullを無視して最初の値を取得する
Python
from pyspark.sql import functions as sf
spark.createDataFrame(
[(None, 1), ("a", 2), ("a", 3), ("b", 8), ("b", 2)], ["a", "b"]
).select(sf.first_value('a', True), sf.first_value('b', True)).show()
Output
+--------------+--------------+
|first_value(a)|first_value(b)|
+--------------+--------------+
| a| 1|
+--------------+--------------+