Pular para o conteúdo principal

tente_zstd_descompress

Retorna o valor descompactado de expr usando Zstandard. Suporta dados comprimidos tanto no modo de passagem única quanto no modo de transmissão. Em caso de falha na descompressão, retorna NULL.

Sintaxe

Python
from pyspark.databricks.sql import functions as dbf

dbf.try_zstd_decompress(input=<input>)

Parâmetros

Parâmetro

Tipo

Descrição

input

pyspark.sql.Column ou str

O valor binário a ser descompactado.

Devoluções

pyspark.sql.Column: Uma nova coluna que contém um valor não compactado.

Exemplos

Exemplo 1 : Descompactar uso de dados Zstandard

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("KLUv/SCCpQAAaEFwYWNoZSBTcGFyayABABLS+QU=",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
Output
+----------------------------------------------------------------------------------------------------------------------------------+
|result |
+----------------------------------------------------------------------------------------------------------------------------------+
|Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark |
+----------------------------------------------------------------------------------------------------------------------------------+

Exemplo 2 : Descomprimir entrada inválida

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("invalid input",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
Output
+------+
|result|
+------+
|NULL |
+------+