次の方法で共有


string_agg

集計関数: null 以外の入力値を区切り記号で区切って連結して返します。 listaggのエイリアス。

構文

from pyspark.sql import functions as sf

sf.string_agg(col, delimiter=None)

パラメーター

パラメーター タイプ Description
col pyspark.sql.Column または str 計算対象の列。
delimiter pyspark.sql.Column、str または bytes、省略可能 値を区切る区切り記号。 既定値は None です。

返品ポリシー

pyspark.sql.Column: 計算結果の列。

例示

例 1: string_agg関数の使用

from pyspark.sql import functions as sf
df = spark.createDataFrame([('a',), ('b',), (None,), ('c',)], ['strings'])
df.select(sf.string_agg('strings')).show()
+-------------------------+
|string_agg(strings, NULL)|
+-------------------------+
|                      abc|
+-------------------------+

例 2: 区切り記号string_agg関数を使用する

from pyspark.sql import functions as sf
df = spark.createDataFrame([('a',), ('b',), (None,), ('c',)], ['strings'])
df.select(sf.string_agg('strings', ', ')).show()
+-----------------------+
|string_agg(strings, , )|
+-----------------------+
|                a, b, c|
+-----------------------+

例 3: バイナリ列と区切り記号string_agg関数を使用する

from pyspark.sql import functions as sf
df = spark.createDataFrame([(b'\x01',), (b'\x02',), (None,), (b'\x03',)], ['bytes'])
df.select(sf.string_agg('bytes', b'\x42')).show()
+------------------------+
|string_agg(bytes, X'42')|
+------------------------+
|        [01 42 02 42 03]|
+------------------------+