メインコンテンツまでスキップ

任意の値

行のグループの col の値を返します。

構文

Python
from pyspark.sql import functions as sf

sf.any_value(col, ignoreNulls=None)

パラメーター

パラメーター

Type

説明

col

pyspark.sql.Column または列名

取り組むターゲットカラム。

ignoreNulls

pyspark.sql.Column またはブール値(オプション)

最初の値が null の場合、最初の null 以外の値を検索します。

戻り値

pyspark.sql.Column: 行のグループに対するcolの値。

Python
from pyspark.sql import functions as sf
df = spark.createDataFrame(
[(None, 1), ("a", 2), ("a", 3), ("b", 8), ("b", 2)], ["c1", "c2"])
df.select(sf.any_value('c1'), sf.any_value('c2')).show()
Output
+-------------+-------------+
|any_value(c1)|any_value(c2)|
+-------------+-------------+
| NULL| 1|
+-------------+-------------+
Python
df.select(sf.any_value('c1', True), sf.any_value('c2', True)).show()
Output
+-------------+-------------+
|any_value(c1)|any_value(c2)|
+-------------+-------------+
| a| 1|
+-------------+-------------+