任意の値
行のグループの col の値を返します。
構文
Python
from pyspark.sql import functions as sf
sf.any_value(col, ignoreNulls=None)
パラメーター
パラメーター | Type | 説明 |
|---|---|---|
|
| 取り組むターゲットカラム。 |
|
| 最初の値が null の場合、最初の null 以外の値を検索します。 |
戻り値
pyspark.sql.Column: 行のグループに対するcolの値。
例
Python
from pyspark.sql import functions as sf
df = spark.createDataFrame(
[(None, 1), ("a", 2), ("a", 3), ("b", 8), ("b", 2)], ["c1", "c2"])
df.select(sf.any_value('c1'), sf.any_value('c2')).show()
Output
+-------------+-------------+
|any_value(c1)|any_value(c2)|
+-------------+-------------+
| NULL| 1|
+-------------+-------------+
Python
df.select(sf.any_value('c1', True), sf.any_value('c2', True)).show()
Output
+-------------+-------------+
|any_value(c1)|any_value(c2)|
+-------------+-------------+
| a| 1|
+-------------+-------------+