Pular para o conteúdo principal

função_de_chamada

Chamar uma função SQL. Compatível com Spark Connect.

Sintaxe

Python
from pyspark.databricks.sql import functions as dbf

dbf.call_function(funcName=<funcName>, *cols)

Parâmetros

Parâmetro

Tipo

Descrição

funcName

str

Nome da função que segue a sintaxe do identificador SQL (pode estar entre aspas, pode ser qualificado).

cols

pyspark.sql.Column ou str

Nomes das colunas ou colunas a serem usadas na função.

Devoluções

pyspark.sql.Column: resultado da função executada.

Exemplos

Exemplo 1 : Chamando uma função com uma coluna de inteiros

Python
from pyspark.databricks.sql import functions as dbf
from pyspark.sql.types import IntegerType, StringType
df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
_ = spark.udf.register("intX2", lambda i: i * 2, IntegerType())
df.select(dbf.call_function("intX2", "id")).show()
Output
+---------+
|intX2(id)|
+---------+
| 2|
| 4|
| 6|
+---------+

Exemplo 2 : Chamando uma função com uma coluna de strings

Python
from pyspark.databricks.sql import functions as dbf
from pyspark.sql.types import StringType
df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
_ = spark.udf.register("strX2", lambda s: s * 2, StringType())
df.select(dbf.call_function("strX2", dbf.col("name"))).show()
Output
+-----------+
|strX2(name)|
+-----------+
| aa|
| bb|
| cc|
+-----------+

Exemplo 3 : Chamando uma função integrada

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
df.select(dbf.call_function("avg", dbf.col("id"))).show()
Output
+-------+
|avg(id)|
+-------+
| 2.0|
+-------+

Exemplo 4 : Chamando uma função SQL personalizada

Python
from pyspark.databricks.sql import functions as dbf
_ = spark.sql("CREATE FUNCTION custom_avg AS 'test.org.apache.spark.sql.MyDoubleAvg'")

df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
df.select(dbf.call_function("custom_avg", dbf.col("id"))).show()

Output
+------------------------------------+
|spark_catalog.default.custom_avg(id)|
+------------------------------------+
| 102.0|
+------------------------------------+

Exemplo 5 : Chamando uma função SQL personalizada com nome totalmente qualificado

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
df.select(dbf.call_function("spark_catalog.default.custom_avg", dbf.col("id"))).show()
Output
+------------------------------------+
|spark_catalog.default.custom_avg(id)|
+------------------------------------+
| 102.0|
+------------------------------------+