次の方法で共有


map_values

マップの値を含む順序なし配列を返します。

構文

from pyspark.sql import functions as sf

sf.map_values(col)

パラメーター

パラメーター タイプ Description
col pyspark.sql.Column または str 列または式の名前

返品ポリシー

pyspark.sql.Column: 配列としてのマップの値。

例示

例 1: 単純なマップから値を抽出する

from pyspark.sql import functions as sf
df = spark.sql("SELECT map(1, 'a', 2, 'b') as data")
df.select(sf.sort_array(sf.map_values("data"))).show()
+----------------------------------+
|sort_array(map_values(data), true)|
+----------------------------------+
|                            [a, b]|
+----------------------------------+

例 2: 複合値を持つマップから値を抽出する

from pyspark.sql import functions as sf
df = spark.sql("SELECT map(1, array('a', 'b'), 2, array('c', 'd')) as data")
df.select(sf.sort_array(sf.map_values("data"))).show()
+----------------------------------+
|sort_array(map_values(data), true)|
+----------------------------------+
|                  [[a, b], [c, d]]|
+----------------------------------+

例 3: null 値を持つマップから値を抽出する

from pyspark.sql import functions as sf
df = spark.sql("SELECT map(1, null, 2, 'b') as data")
df.select(sf.sort_array(sf.map_values("data"))).show()
+----------------------------------+
|sort_array(map_values(data), true)|
+----------------------------------+
|                         [NULL, b]|
+----------------------------------+

例 4: 重複する値を持つマップから値を抽出する

from pyspark.sql import functions as sf
df = spark.sql("SELECT map(1, 'a', 2, 'a') as data")
df.select(sf.map_values("data")).show()
+----------------+
|map_values(data)|
+----------------+
|          [a, a]|
+----------------+

例 5: 空のマップから値を抽出する

from pyspark.sql import functions as sf
df = spark.sql("SELECT map() as data")
df.select(sf.map_values("data")).show()
+----------------+
|map_values(data)|
+----------------+
|              []|
+----------------+