メインコンテンツまでスキップ

mapInArrow

現在の DataFrame 内のバッチのイテレータを、入力と出力の両方としてpyarrow.RecordBatch秒に対して実行される Python ネイティブ関数を使用してマッピングし、結果を DataFrame として返します。

構文

mapInArrow(func: "ArrowMapIterFunction", schema: Union[StructType, str], barrier: bool = False, profile: Optional[ResourceProfile] = None)

パラメーター

パラメーター

Type

説明

func

function

pyarrow.RecordBatch秒のイテレータを受け取り、 pyarrow.RecordBatch秒のイテレータを出力する Python ネイティブ関数。

schema

データ型または文字列

PySpark におけるfuncの戻り値の型。値は、 pyspark.sql.types.DataTypeオブジェクトまたは DDL 形式の型文字列のいずれかになります。

barrier

bool型、オプション、デフォルト値はFalse

バリアモード実行を使用することで、ステージ内のすべてのPythonプロセスが同時に起動されることを保証します。

profile

リソースプロファイル(オプション)

mapInArrowで使用するオプションのリソースプロファイル。

戻り値

DataFrame

Python
import pyarrow as pa
df = spark.createDataFrame([(1, 21), (2, 30)], ("id", "age"))
def filter_func(iterator):
for batch in iterator:
pdf = batch.to_pandas()
yield pa.RecordBatch.from_pandas(pdf[pdf.id == 1])
df.mapInArrow(filter_func, df.schema).show()
# +---+---+
# | id|age|
# +---+---+
# | 1| 21|
# +---+---+

df.mapInArrow(filter_func, df.schema, barrier=True).collect()
# [Row(id=1, age=21)]
このページの見出し