メインコンテンツまでスキップ

ip_cidr_contains

対象: はいにチェックマーク Databricks Runtime 18.2以降

備考

ベータ版

この機能はベータ版です。ワークスペース管理者は、 プレビュー ページからこの機能へのアクセスを制御できます。Databricksのプレビューを管理するを参照してください。

IPアドレスまたはCIDRブロックが別のCIDRブロック内に含まれている場合はTrue返し、そうでない場合はFalseを返します。

対応する SQL 関数については、 ip_cidr_contains関数を参照してください。

構文

Python
from pyspark.databricks.sql import functions as dbf

dbf.ip_cidr_contains(col1=<col1>, col2=<col2>)

パラメーター

パラメーター

Type

説明

col1

pyspark.sql.Column または str

有効なIPv4またはIPv6 CIDRブロックを表す文字列またはバイナリ値。

col2

pyspark.sql.Column または str

有効な IPv4 アドレスまたは IPv6 アドレス、あるいは CIDR ブロックを表す文字列またはバイナリ値。

例1 :IPアドレスがCIDRブロックに含まれているかどうかを確認します。

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('192.168.1.0/24', '192.168.1.100')], ['cidr', 'ip'])
df.select(dbf.ip_cidr_contains('cidr', 'ip').alias('result')).collect()
Output
[Row(result=True)]

例2 :より小さいCIDRブロックがより大きなCIDRブロックに含まれているかどうかを確認します。

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('192.168.0.0/16', '192.168.1.0/24')], ['cidr', 'needle'])
df.select(dbf.ip_cidr_contains('cidr', 'needle').alias('result')).collect()
Output
[Row(result=True)]

例3None入力はNoneを返します。

Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(None, '192.168.1.1')], 'cidr: string, ip: string')
df.select(dbf.ip_cidr_contains('cidr', 'ip').alias('result')).collect()
Output
[Row(result=None)]
このページの見出し