配列の個別値
配列から重複する値を削除します。
構文
Python
from pyspark.sql import functions as sf
sf.array_distinct(col)
パラメーター
パラメーター | Type | 説明 |
|---|---|---|
|
| 列または式の名前 |
戻り値
pyspark.sql.Column: 入力列からの一意の値の配列である新しい列。
例
例1 : 単純な配列から重複する値を削除する
Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3, 2],)], ['data'])
df.select(sf.array_distinct(df.data)).show()
Output
+--------------------+
|array_distinct(data)|
+--------------------+
| [1, 2, 3]|
+--------------------+
例2 : 複数の配列から重複する値を削除する
Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3, 2],), ([4, 5, 5, 4],)], ['data'])
df.select(sf.array_distinct(df.data)).show()
Output
+--------------------+
|array_distinct(data)|
+--------------------+
| [1, 2, 3]|
| [4, 5]|
+--------------------+
例3 : すべて同一の値を持つ配列から重複する値を削除する
Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 1, 1],)], ['data'])
df.select(sf.array_distinct(df.data)).show()
Output
+--------------------+
|array_distinct(data)|
+--------------------+
| [1]|
+--------------------+
例4 : 重複値のない配列から重複値を削除する
Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_distinct(df.data)).show()
Output
+--------------------+
|array_distinct(data)|
+--------------------+
| [1, 2, 3]|
+--------------------+
例5 : 空の配列から重複する値を削除する
Python
from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([([],)], schema)
df.select(sf.array_distinct(df.data)).show()
Output
+--------------------+
|array_distinct(data)|
+--------------------+
| []|
+--------------------+