メインコンテンツまでスキップ

グループ内の式の最小値を返します。

構文

Python
from pyspark.sql import functions as sf

sf.min(col)

パラメーター

パラメーター

Type

説明

col

pyspark.sql.Column または列名

最小値がコンピュートとなるターゲットカラム。

戻り値

pyspark.sql.Column: 最小値コンピュートを含む列。

例 1 : 数値列の最小値を計算する

Python
import pyspark.sql.functions as sf
df = spark.range(10)
df.select(sf.min(df.id)).show()
Output
+-------+
|min(id)|
+-------+
| 0|
+-------+

例 2 : 文字列列の最小値を計算する

Python
import pyspark.sql.functions as sf
df = spark.createDataFrame([("Alice",), ("Bob",), ("Charlie",)], ["name"])
df.select(sf.min("name")).show()
Output
+---------+
|min(name)|
+---------+
| Alice|
+---------+

例 3 : NULL 値を含む列の最小値を計算する

Python
import pyspark.sql.functions as sf
df = spark.createDataFrame([(1,), (None,), (3,)], ["value"])
df.select(sf.min("value")).show()
Output
+----------+
|min(value)|
+----------+
| 1|
+----------+

例 4 : グループ化されたDataFrame内の列の最小値を計算する

Python
import pyspark.sql.functions as sf
df = spark.createDataFrame([("Alice", 1), ("Alice", 2), ("Bob", 3)], ["name", "value"])
df.groupBy("name").agg(sf.min("value")).show()
Output
+-----+----------+
| name|min(value)|
+-----+----------+
|Alice| 1|
| Bob| 3|
+-----+----------+

例 5 : 複数の列を持つDataFrame内の列の最小値を計算する

Python
import pyspark.sql.functions as sf
df = spark.createDataFrame(
[("Alice", 1, 100), ("Bob", 2, 200), ("Charlie", 3, 300)],
["name", "value1", "value2"])
df.select(sf.min("value1"), sf.min("value2")).show()
Output
+-----------+-----------+
|min(value1)|min(value2)|
+-----------+-----------+
| 1| 100|
+-----------+-----------+