tente_zstd_descompress
Retorna o valor descompactado de expr usando Zstandard. Suporta dados comprimidos tanto no modo de passagem única quanto no modo de transmissão. Em caso de falha na descompressão, retorna NULL.
Sintaxe
Python
from pyspark.databricks.sql import functions as dbf
dbf.try_zstd_decompress(input=<input>)
Parâmetros
Parâmetro | Tipo | Descrição |
|---|---|---|
|
| O valor binário a ser descompactado. |
Devoluções
pyspark.sql.Column: Uma nova coluna que contém um valor não compactado.
Exemplos
Exemplo 1 : Descompactar uso de dados Zstandard
Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("KLUv/SCCpQAAaEFwYWNoZSBTcGFyayABABLS+QU=",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
Output
+----------------------------------------------------------------------------------------------------------------------------------+
|result |
+----------------------------------------------------------------------------------------------------------------------------------+
|Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark |
+----------------------------------------------------------------------------------------------------------------------------------+
Exemplo 2 : Descomprimir entrada inválida
Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("invalid input",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
Output
+------+
|result|
+------+
|NULL |
+------+