メインコンテンツまでスキップ

配列サイズ

配列内の要素の合計数を返します。この関数は、null 入力に対して null を返します。

構文

Python
from pyspark.sql import functions as sf

sf.array_size(col)

パラメーター

パラメーター

Type

説明

col

pyspark.sql.Column または文字列

列の名前または配列を表す式。

戻り値

pyspark.sql.Column: 各配列のサイズを含む新しい列。

例1 : 整数配列の基本的な使用法

Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([([2, 1, 3],), (None,)], ['data'])
df.select(sf.array_size(df.data)).show()
Output
+----------------+
|array_size(data)|
+----------------+
| 3|
| NULL|
+----------------+

例2 : 文字列配列の使用

Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([(['apple', 'banana', 'cherry'],)], ['data'])
df.select(sf.array_size(df.data)).show()
Output
+----------------+
|array_size(data)|
+----------------+
| 3|
+----------------+

例3 : 混合型配列の使用

Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([(['apple', 1, 'cherry'],)], ['data'])
df.select(sf.array_size(df.data)).show()
Output
+----------------+
|array_size(data)|
+----------------+
| 3|
+----------------+

例4 : 配列の配列の使用

Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([([[2, 1], [3, 4]],)], ['data'])
df.select(sf.array_size(df.data)).show()
Output
+----------------+
|array_size(data)|
+----------------+
| 2|
+----------------+

例5 : 空の配列の使用

Python
from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([([],)], schema=schema)
df.select(sf.array_size(df.data)).show()
Output
+----------------+
|array_size(data)|
+----------------+
| 0|
+----------------+