メインコンテンツまでスキップ

h3_try_coverash3

入力された線形または面積地理を最小限にカバーする指定された解像度の六角形または五角形に対応する、長整数として表されるH3 セル IDの配列を返します。地理が線形 (ラインストリングまたはマルチラインストリング)、面積 (ポリゴンまたはマルチポリゴン) でない場合、または入力の解析時にエラーが見つかった場合、式はNone返します。入力解像度が無効な場合、式はエラーを返します。地理の表現。

許容される入力表現は WKT、GeoJSON、および WKB です。最初の 2 つのケースでは入力は文字列型であることが期待されますが、最後のケースでは入力は BINARY 型であることが期待されます。

対応する Databricks SQL 関数については、 h3_try_coverash3関数を参照してください。

構文

Python
from pyspark.databricks.sql import functions as dbf

dbf.h3_try_coverash3(col1=<col1>, col2=<col2>)

パラメーター

パラメーター

Type

説明

col1

pyspark.sql.Column または str

WKT または GeoJSON 形式の WGS84 座標参照システムの線形または面積地理を表す文字列、または WKB 形式の WGS84 座標参照システムの線形または面積地理を表す BINARY。

col2

pyspark.sql.Columnstr 、または int

地理をカバーする H3 セル ID の解像度。

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_try_coverash3('wkt', 'res').alias('result')).collect()
Output
[Row(result=[581650447186526207, 581672437419081727, 581698825698148351, 581707621791170559,     581716417884192767, 582248581512036351, 581637253046992895, 581641651093503999,     581646049140015103])]
Python
df_invalid = spark.createDataFrame([('invalid input', 1),], ['wkt', 'res'])
df_invalid.select(dbf.h3_try_coverash3('wkt', 'res').alias('result')).collect()
Output
[Row(result=None)]