次の方法で共有


split_part

区切り記号で str を分割し、要求された分割の一部 (1 から始まる) を返します。

入力が null の場合は null を返します。 partNumが分割部分の範囲外の場合は、空の文字列を返します。

partNumが 0 の場合は、エラーがスローされます。partNumが負の値の場合、部分は文字列の末尾から後方にカウントされます。

delimiterが空の文字列の場合、strは分割されません。

対応する Databricks SQL 関数については、 split_part 関数を参照してください。

構文

from pyspark.databricks.sql import functions as dbf

dbf.split_part(src=<src>, delimiter=<delimiter>, partNum=<partNum>)

パラメーター

パラメーター タイプ Description
src pyspark.sql.Column または str 分割する文字列の列。
delimiter pyspark.sql.Column または str 文字列の列。分割に使用される区切り記号です。
partNum pyspark.sql.Column または str 分割の一部を要求した文字列の列 (1 から始まる)。

例示

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("11.12.13", ".", 3,)], ["a", "b", "c"])
df.select("*", dbf.split_part("a", "b", "c")).show()
df.select("*", dbf.split_part(df.a, df.b, dbf.lit(-2))).show()