メインコンテンツまでスキップ

変換値

マップ内のすべてのキーと値のペアに関数を適用し、その適用結果をペアの新しい値として含むマップを返します。Spark Connect をサポートします。

対応する Databricks SQL 関数については、 transform_values関数を参照してください。

構文

Python
from pyspark.databricks.sql import functions as dbf

dbf.transform_values(col=<col>, f=<f>)

パラメーター

パラメーター

Type

説明

col

pyspark.sql.Column または str

列または式の名前。

f

function

バイナリ関数。

戻り値

pyspark.sql.Column: 指定された関数を各キー値引数に適用して新しい値が計算されたエントリの新しいマップ。

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(1, {"IT": 10.0, "SALES": 2.0, "OPS": 24.0})], ("id", "data"))
row = df.select(dbf.transform_values(
"data", lambda k, v: dbf.when(k.isin("IT", "OPS"), v + 10.0).otherwise(v)
).alias("new_data")).head()
sorted(row["new_data"].items())
Output
[('IT', 20.0), ('OPS', 34.0), ('SALES', 2.0)]