array_append
Retorna uma nova coluna de matriz, adicionando um valor à matriz existente.
Sintaxe
Python
from pyspark.sql import functions as sf
sf.array_append(col, value)
Parâmetros
Parâmetro | Tipo | Descrição |
|---|---|---|
|
| O nome da coluna que contém a matriz. |
| Qualquer um | Um valor literal ou uma expressão de coluna a ser adicionada à matriz. |
Devoluções
pyspark.sql.Column: Uma nova coluna de matriz com value anexada à matriz original.
Exemplos
Exemplo 1 : Adicionando o valor de uma coluna a uma coluna de matriz.
Python
from pyspark.sql import Row, functions as sf
df = spark.createDataFrame([Row(c1=["b", "a", "c"], c2="c")])
df.select(sf.array_append(df.c1, df.c2)).show()
Output
+--------------------+
|array_append(c1, c2)|
+--------------------+
| [b, a, c, c]|
+--------------------+
Exemplo 2 : Adicionando um valor numérico a uma coluna de matriz
Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_append(df.data, 4)).show()
Output
+---------------------+
|array_append(data, 4)|
+---------------------+
| [1, 2, 3, 4]|
+---------------------+
Exemplo 3 : Adicionando um valor nulo a uma coluna de matriz
Python
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_append(df.data, None)).show()
Output
+------------------------+
|array_append(data, NULL)|
+------------------------+
| [1, 2, 3, NULL]|
+------------------------+
Exemplo 4 : Adicionando um valor a uma coluna de matriz NULL
Python
from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([(None,)], schema=schema)
df.select(sf.array_append(df.data, 4)).show()
Output
+---------------------+
|array_append(data, 4)|
+---------------------+
| NULL|
+---------------------+
Exemplo 5 : Adicionando um valor a uma matriz vazia
Python
from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([([],)], schema=schema)
df.select(sf.array_append(df.data, 1)).show()
Output
+---------------------+
|array_append(data, 1)|
+---------------------+
| [1]|
+---------------------+