to_char
formatに基づいてcol文字列に変換します。変換に失敗した場合は例外をスローします。
形式は次の文字で構成できます (大文字と小文字は区別されません)。
-
「0」または「9」: 0 から 9 までの予想される数字を指定します。フォーマット文字列内の 0 または 9 のシーケンスは入力値の数字のシーケンスと一致し、フォーマット文字列内の対応するシーケンスと同じ長さの結果文字列を生成します。0/9のシーケンスが10進数値の対応する部分よりも多くの桁数で構成され、0で始まり、小数点の前にある場合、結果の文字列の左側にゼロが埋め込まれます。 ポイント。それ以外の場合は、スペースが埋め込まれます。
-
'.' または 'D': 小数点の位置を指定します (オプション、1 回のみ許可)。
-
',' または 'G': グループ (千単位) 区切り記号 (,) の位置を指定します。各グループ化区切り文字の左側と右側には 0 または 9 が必要です。
-
'$': $ 通貨記号の位置を指定します。この文字は 1 回だけ指定できます。
-
「S」または「MI」: 「-」または「+」記号の位置を指定します (オプション、書式文字列の先頭または末尾に 1 回のみ使用できます)。'S' は正の値に対して '+' を出力しますが、 'MI' はスペースを出力することに注意してください。
-
'PR': 書式文字列の末尾でのみ許可されます。入力値が負の場合、結果文字列が山括弧で囲まれることを指定します。
colが日時の場合、 formatは有効な日時パターンになります。
colがバイナリの場合、次のいずれかの形式の文字列に変換されます。
- 'base64': Base 64 文字列。
- 'hex': 16 進形式の文字列。
- 'utf-8': 入力バイナリは UTF-8 文字列にデコードされます。
対応する Databricks SQL 関数については、 to_char関数を参照してください。
構文
from pyspark.databricks.sql import functions as dbf
dbf.to_char(col=<col>, format=<format>)
パラメーター
パラメーター | Type | 説明 |
|---|---|---|
|
| 列または文字列を入力します。 |
|
| char 値を変換するために使用する形式。 |
例
df = spark.createDataFrame([(78.12,)], ["e"])
df.select(to_char(df.e, lit("$99.99")).alias('r')).collect()