Pular para o conteúdo principal

h3_try_coverash3string

Retorna uma matriz de IDs de células H3 representados como strings, correspondentes a hexágonos ou pentágonos da resolução especificada que cobrem minimamente a geografia linear ou areal de entrada. A expressão retorna None se a geografia não for linear (linha ou multilinha), areal (polígono ou multipolígono) ou se um erro for encontrado ao analisar a entrada. A expressão retorna um erro se a resolução de entrada for inválida. Os formatos de entrada aceitáveis são WKT, GeoJSON e WKB. Nos dois primeiros casos, espera-se que a entrada seja do tipo string, enquanto no último caso espera-se que a entrada seja do tipo BINÁRIO.

Para a função Databricks SQL correspondente, consulte a funçãoh3_try_coverash3string.

Sintaxe

Python
from pyspark.databricks.sql import functions as dbf

dbf.h3_try_coverash3string(col1=<col1>, col2=<col2>)

Parâmetros

Parâmetro

Tipo

Descrição

col1

pyspark.sql.Column ou str

Uma sequência de caracteres representando uma geografia linear ou espacial no sistema de referência de coordenadas WGS84 em formato WKT ou GeoJSON, ou um valor BINÁRIO representando uma geografia linear ou espacial no sistema de referência de coordenadas WGS84 em formato WKB.

col2

pyspark.sql.Column, str, ou int

A resolução dos IDs de células H3 que cobrem a área geográfica.

Exemplos

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_try_coverash3string('wkt', 'res').alias('result')).collect()
Output
[Row(result=['8126fffffffffff', '81283ffffffffff', '8129bffffffffff', '812a3ffffffffff',     '812abffffffffff', '8148fffffffffff', '81263ffffffffff', '81267ffffffffff', '8126bffffffffff'])]
Python
df_invalid = spark.createDataFrame([('invalid input', 1),], ['wkt', 'res'])
df_invalid.select(dbf.h3_try_coverash3string('wkt', 'res').alias('result')).collect()
Output
[Row(result=None)]