to_varchar
formatに基づいてcol文字列に変換します。変換に失敗した場合は例外をスローします。Spark Connect をサポートします。
形式は次の文字で構成できます (大文字と小文字は区別されません)。
'0'または'9': 0 から 9 までの予想される数字を指定します。フォーマット文字列内の 0 または 9 のシーケンスは入力値の数字のシーケンスと一致し、フォーマット文字列内の対応するシーケンスと同じ長さの結果文字列を生成します。0/9 シーケンスが 10 進数値の一致する部分よりも多くの桁数で構成され、0 で始まり、小数点の前にある場合、結果文字列の左側にゼロが埋め込まれます。それ以外の場合は、スペースが埋め込まれます。'.'または'D': 小数点の位置を指定します (オプション、1 回のみ許可)。','または'G': グループ化(千単位)区切り記号(,)の位置を指定します。各グループ化区切り文字の左側と右側には 0 または 9 が必要です。'$': $ 通貨記号の位置を指定します。この文字は 1 回だけ指定できます。'S'または'MI': '-' または '+' 記号の位置を指定します (オプション、書式文字列の先頭または末尾に 1 回のみ許可されます)。'S' は正の値に対して '+' を出力しますが、 'MI' はスペースを出力することに注意してください。'PR': 書式文字列の末尾でのみ許可されます。入力値が負の場合、結果文字列が山括弧で囲まれることを指定します。
colが日時の場合、 formatは有効な日時パターンになります。パターンを参照してください。
colがバイナリの場合、次のいずれかの形式の文字列に変換されます。
'base64': Base 64 文字列。'hex': 16 進形式の文字列。'utf-8': 入力バイナリは UTF-8 文字列にデコードされます。
対応する Databricks SQL 関数については、 to_varchar関数を参照してください。
構文
Python
from pyspark.databricks.sql import functions as dbf
dbf.to_varchar(col=<col>, format=<format>)
パラメーター
パラメーター | Type | 説明 |
|---|---|---|
|
| 列または文字列を入力します。 |
|
| char 値を変換するために使用する形式。 |
例
Python
from pyspark.databricks.sql import functions as dbf
from pyspark.sql.functions import lit
df = spark.createDataFrame([(78.12,)], ['e'])
df.select(dbf.to_varchar(df.e, lit("$99.99")).alias('r')).collect()