次の方法で共有


json_array_length

最も外側の JSON 配列内の要素の数を返します。 NULL は、その他の有効な JSON 文字列、 NULL 、または無効な JSON の場合に返されます。

構文

from pyspark.sql import functions as sf

sf.json_array_length(col)

パラメーター

パラメーター タイプ Description
col pyspark.sql.Column または str 計算対象の列。

返品ポリシー

pyspark.sql.Column: json 配列の長さ。

例示

from pyspark.sql import functions as sf
df = spark.createDataFrame([(None,), ('[1, 2, 3]',), ('[]',)], ['data'])
df.select(sf.json_array_length(df.data).alias('r')).collect()
[Row(r=None), Row(r=3), Row(r=0)]