Condividi tramite


call_function

Chiamare una funzione SQL. Supporta Spark Connect.

Sintassi

from pyspark.databricks.sql import functions as dbf

dbf.call_function(funcName=<funcName>, *cols)

Parametri

Parametro TIPO Description
funcName str Nome della funzione che segue la sintassi dell'identificatore SQL (può essere qualificata).
cols pyspark.sql.Column o str Nomi di colonna o Colonne da usare nella funzione.

Restituzioni

pyspark.sql.Column: risultato della funzione eseguita.

Esempi

Esempio 1: Chiamata di una funzione con una colonna integer

from pyspark.databricks.sql import functions as dbf
from pyspark.sql.types import IntegerType, StringType
df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
_ = spark.udf.register("intX2", lambda i: i * 2, IntegerType())
df.select(dbf.call_function("intX2", "id")).show()
+---------+
|intX2(id)|
+---------+
|        2|
|        4|
|        6|
+---------+

Esempio 2: Chiamata di una funzione con una colonna stringa

from pyspark.databricks.sql import functions as dbf
from pyspark.sql.types import StringType
df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
_ = spark.udf.register("strX2", lambda s: s * 2, StringType())
df.select(dbf.call_function("strX2", dbf.col("name"))).show()
+-----------+
|strX2(name)|
+-----------+
|         aa|
|         bb|
|         cc|
+-----------+

Esempio 3: Chiamata di una funzione predefinita

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
df.select(dbf.call_function("avg", dbf.col("id"))).show()
+-------+
|avg(id)|
+-------+
|    2.0|
+-------+

Esempio 4: Chiamata di una funzione SQL personalizzata

from pyspark.databricks.sql import functions as dbf
_ = spark.sql("CREATE FUNCTION custom_avg AS 'test.org.apache.spark.sql.MyDoubleAvg'")

df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
df.select(dbf.call_function("custom_avg", dbf.col("id"))).show()

+------------------------------------+
|spark_catalog.default.custom_avg(id)|
+------------------------------------+
|                               102.0|
+------------------------------------+

Esempio 5: Chiamata di una funzione SQL personalizzata con nome completo

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(1, "a"),(2, "b"), (3, "c")],["id", "name"])
df.select(dbf.call_function("spark_catalog.default.custom_avg", dbf.col("id"))).show()
+------------------------------------+
|spark_catalog.default.custom_avg(id)|
+------------------------------------+
|                               102.0|
+------------------------------------+