メインコンテンツまでスキップ

to_varchar

formatに基づいてcol文字列に変換します。変換に失敗した場合は例外をスローします。Spark Connect をサポートします。

形式は次の文字で構成できます (大文字と小文字は区別されません)。

  • '0' または'9' : 0 から 9 までの予想される数字を指定します。フォーマット文字列内の 0 または 9 のシーケンスは入力値の数字のシーケンスと一致し、フォーマット文字列内の対応するシーケンスと同じ長さの結果文字列を生成します。0/9 シーケンスが 10 進数値の一致する部分よりも多くの桁数で構成され、0 で始まり、小数点の前にある場合、結果文字列の左側にゼロが埋め込まれます。それ以外の場合は、スペースが埋め込まれます。
  • '.' または'D' : 小数点の位置を指定します (オプション、1 回のみ許可)。
  • ',' または'G' : グループ化(千単位)区切り記号(,)の位置を指定します。各グループ化区切り文字の左側と右側には 0 または 9 が必要です。
  • '$': $ 通貨記号の位置を指定します。この文字は 1 回だけ指定できます。
  • 'S' または'MI' : '-' または '+' 記号の位置を指定します (オプション、書式文字列の先頭または末尾に 1 回のみ許可されます)。'S' は正の値に対して '+' を出力しますが、 'MI' はスペースを出力することに注意してください。
  • 'PR': 書式文字列の末尾でのみ許可されます。入力値が負の場合、結果文字列が山括弧で囲まれることを指定します。

colが日時の場合、 formatは有効な日時パターンになります。パターンを参照してください。

colがバイナリの場合、次のいずれかの形式の文字列に変換されます。

  • 'base64': Base 64 文字列。
  • 'hex': 16 進形式の文字列。
  • 'utf-8': 入力バイナリは UTF-8 文字列にデコードされます。

対応する Databricks SQL 関数については、 to_varchar関数を参照してください。

構文

Python
from pyspark.databricks.sql import functions as dbf

dbf.to_varchar(col=<col>, format=<format>)

パラメーター

パラメーター

Type

説明

col

pyspark.sql.Column または str

列または文字列を入力します。

format

pyspark.sql.Column または str

char 値を変換するために使用する形式。

Python
from pyspark.databricks.sql import functions as dbf
from pyspark.sql.functions import lit
df = spark.createDataFrame([(78.12,)], ['e'])
df.select(dbf.to_varchar(df.e, lit("$99.99")).alias('r')).collect()