メインコンテンツまでスキップ

to_char

formatに基づいてcol文字列に変換します。変換に失敗した場合は例外をスローします。

形式は次の文字で構成できます (大文字と小文字は区別されません)。

  • 「0」または「9」: 0 から 9 までの予想される数字を指定します。フォーマット文字列内の 0 または 9 のシーケンスは入力値の数字のシーケンスと一致し、フォーマット文字列内の対応するシーケンスと同じ長さの結果文字列を生成します。0/9のシーケンスが10進数値の対応する部分よりも多くの桁数で構成され、0で始まり、小数点の前にある場合、結果の文字列の左側にゼロが埋め込まれます。 ポイント。それ以外の場合は、スペースが埋め込まれます。

  • '.' または 'D': 小数点の位置を指定します (オプション、1 回のみ許可)。

  • ',' または 'G': グループ (千単位) 区切り記号 (,) の位置を指定します。各グループ化区切り文字の左側と右側には 0 または 9 が必要です。

  • '$': $ 通貨記号の位置を指定します。この文字は 1 回だけ指定できます。

  • 「S」または「MI」: 「-」または「+」記号の位置を指定します (オプション、書式文字列の先頭または末尾に 1 回のみ使用できます)。'S' は正の値に対して '+' を出力しますが、 'MI' はスペースを出力することに注意してください。

  • 'PR': 書式文字列の末尾でのみ許可されます。入力値が負の場合、結果文字列が山括弧で囲まれることを指定します。

colが日時の場合、 formatは有効な日時パターンになります。

colがバイナリの場合、次のいずれかの形式の文字列に変換されます。

  • 'base64': Base 64 文字列。
  • 'hex': 16 進形式の文字列。
  • 'utf-8': 入力バイナリは UTF-8 文字列にデコードされます。

対応する Databricks SQL 関数については、 to_char関数を参照してください。

構文

Python
from pyspark.databricks.sql import functions as dbf

dbf.to_char(col=<col>, format=<format>)

パラメーター

パラメーター

Type

説明

col

pyspark.sql.Column または str

列または文字列を入力します。

format

pyspark.sql.Column または str, optional

char 値を変換するために使用する形式。

Python
df = spark.createDataFrame([(78.12,)], ["e"])
df.select(to_char(df.e, lit("$99.99")).alias('r')).collect()