Pular para o conteúdo principal

udf

Cria uma função definida pelo usuário (UDF).

Sintaxe

Python
import pyspark.sql.functions as sf

# As a decorator
@sf.udf
def function_name(col):
# function body
pass

# As a decorator with return type
@sf.udf(returnType=<returnType>, useArrow=<useArrow>)
def function_name(col):
# function body
pass

# As a function wrapper
sf.udf(f=<function>, returnType=<returnType>, useArrow=<useArrow>)

Parâmetros

Parâmetro

Tipo

Descrição

f

function

Opcional. Função Python se usada como uma função independente.

returnType

pyspark.sql.types.DataType ou str

Opcional. O tipo de retorno da função definida pelo usuário. O valor pode ser um objeto DataType ou uma cadeia de caracteres formatada em DDL. O valor padrão é StringType.

useArrow

bool

Opcional. Se deve ou não utilizar o Arrow para otimizar a (des)serialização. Quando for None, a configuração do Spark "spark.sql.execution.pythonUDF.arrow.enabled" entra em vigor.

Exemplos

Exemplo 1 : Criando UDFs usando lambda, decorador e decorador com tipo de retorno.

Python
from pyspark.sql.types import IntegerType
from pyspark.sql.functions import udf

slen = udf(lambda s: len(s), IntegerType())

@udf
def to_upper(s):
if s is not None:
return s.upper()

@udf(returnType=IntegerType())
def add_one(x):
if x is not None:
return x + 1

df = spark.createDataFrame([(1, "John Doe", 21)], ("id", "name", "age"))
df.select(slen("name").alias("slen(name)"), to_upper("name"), add_one("age")).show()
Output
+----------+--------------+------------+
|slen(name)|to_upper(name)|add_one(age)|
+----------+--------------+------------+
| 8| JOHN DOE| 22|
+----------+--------------+------------+

Exemplo 2 : UDF com argumentos nomeados.

Python
from pyspark.sql.types import IntegerType
from pyspark.sql.functions import udf, col

@udf(returnType=IntegerType())
def calc(a, b):
return a + 10 * b

spark.range(2).select(calc(b=col("id") * 10, a=col("id"))).show()
Output
+-----------------------------+
|calc(b => (id * 10), a => id)|
+-----------------------------+
| 0|
| 101|
+-----------------------------+

Exemplo 3 : UDF vetorizada usando dicas de tipo Pandas Series.

Python
from pyspark.sql.types import IntegerType
from pyspark.sql.functions import udf, col, PandasUDFType
import pandas as pd

@udf(returnType=IntegerType())
def pd_calc(a: pd.Series, b: pd.Series) -> pd.Series:
return a + 10 * b

pd_calc.evalType == PandasUDFType.SCALAR
spark.range(2).select(pd_calc(b=col("id") * 10, a="id")).show()
Output
+--------------------------------+
|pd_calc(b => (id * 10), a => id)|
+--------------------------------+
| 0|
| 101|
+--------------------------------+

Exemplo 4 : UDF vetorizada usando dicas de tipo de matriz PyArrow.

Python
from pyspark.sql.types import IntegerType
from pyspark.sql.functions import udf, col, ArrowUDFType
import pyarrow as pa

@udf(returnType=IntegerType())
def pa_calc(a: pa.Array, b: pa.Array) -> pa.Array:
return pa.compute.add(a, pa.compute.multiply(b, 10))

pa_calc.evalType == ArrowUDFType.SCALAR
spark.range(2).select(pa_calc(b=col("id") * 10, a="id")).show()
Output
+--------------------------------+
|pa_calc(b => (id * 10), a => id)|
+--------------------------------+
| 0|
| 101|
+--------------------------------+

Exemplo 5 : UDF Python otimizada para Arrow (default desde Spark 4.2).

Python
from pyspark.sql.types import IntegerType
from pyspark.sql.functions import udf

# Arrow optimization is enabled by default since Spark 4.2
@udf(returnType=IntegerType())
def my_udf(x):
return x + 1

# To explicitly disable Arrow optimization and use pickle-based serialization:
@udf(returnType=IntegerType(), useArrow=False)
def legacy_udf(x):
return x + 1

Exemplo 6 : Criando uma UDF não determinística.

Python
from pyspark.sql.types import IntegerType
from pyspark.sql.functions import udf
import random

random_udf = udf(lambda: int(random.random() * 100), IntegerType()).asNondeterministic()