h3_try_coverash3
入力された線形または面積地理を最小限にカバーする指定された解像度の六角形または五角形に対応する、長整数として表されるH3 セル IDの配列を返します。地理が線形 (ラインストリングまたはマルチラインストリング)、面積 (ポリゴンまたはマルチポリゴン) でない場合、または入力の解析時にエラーが見つかった場合、式はNone返します。入力解像度が無効な場合、式はエラーを返します。地理の表現。
許容される入力表現は WKT、GeoJSON、および WKB です。最初の 2 つのケースでは入力は文字列型であることが期待されますが、最後のケースでは入力は BINARY 型であることが期待されます。
対応する Databricks SQL 関数については、 h3_try_coverash3関数を参照してください。
構文
Python
from pyspark.databricks.sql import functions as dbf
dbf.h3_try_coverash3(col1=<col1>, col2=<col2>)
パラメーター
パラメーター | Type | 説明 |
|---|---|---|
|
| WKT または GeoJSON 形式の WGS84 座標参照システムの線形または面積地理を表す文字列、または WKB 形式の WGS84 座標参照システムの線形または面積地理を表す BINARY。 |
|
| 地理をカバーする H3 セル ID の解像度。 |
例
Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_try_coverash3('wkt', 'res').alias('result')).collect()
Output
[Row(result=[581650447186526207, 581672437419081727, 581698825698148351, 581707621791170559, 581716417884192767, 582248581512036351, 581637253046992895, 581641651093503999, 581646049140015103])]
Python
df_invalid = spark.createDataFrame([('invalid input', 1),], ['wkt', 'res'])
df_invalid.select(dbf.h3_try_coverash3('wkt', 'res').alias('result')).collect()
Output
[Row(result=None)]