h3_coverash3
入力された線形または面積地理を最小限にカバーする指定された解像度の六角形または五角形に対応する、長整数として表されるH3 セル IDの配列を返します。地理が線形 (ラインストリングまたはマルチラインストリング)、面積 (ポリゴンまたはマルチポリゴン) でない場合、または地理の入力表現を解析するときにエラーが見つかった場合、式はエラーを出力します。
許容される入力表現はWKT 、 GeoJSON 、およびWKBです。最初の 2 つのケースでは入力は文字列型であることが期待されますが、最後のケースでは入力はバイナリ型であることが期待されます。Spark Connect をサポートします。
対応する Databricks SQL 関数については、 h3_coverash3関数を参照してください。
構文
Python
from pyspark.databricks.sql import functions as dbf
dbf.h3_coverash3(col1=<col1>, col2=<col2>)
パラメーター
パラメーター | Type | 説明 |
|---|---|---|
|
| WKT または GeoJSON 形式の WGS84 座標参照システムの線形または面積地理を表す文字列、または WKB 形式の WGS84 座標参照システムの線形または面積地理を表す BINARY。 |
|
| 地理をカバーする H3 セル ID の解像度。 |
例
Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_coverash3('wkt', 'res').alias('result')).collect()
Output
[Row(result=[581650447186526207, 581672437419081727, 581698825698148351, 581707621791170559, 581716417884192767, 582248581512036351, 581637253046992895, 581641651093503999, 581646049140015103])]