Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Divide per delimitatore e restituisce str parte richiesta della divisione (basata su 1).
Se un input è Null, restituisce null. se partNum non è compreso nell'intervallo di parti suddivise, restituisce una stringa vuota.
Se partNum è 0, genera un errore. Se partNum è negativo, le parti vengono conteggiate all'indietro dalla fine della stringa.
Se è delimiter una stringa vuota, l'oggetto str non viene suddiviso.
Per la funzione SQL di Databricks corrispondente, vedere split_part funzione.
Sintassi
from pyspark.databricks.sql import functions as dbf
dbf.split_part(src=<src>, delimiter=<delimiter>, partNum=<partNum>)
Parametri
| Parametro | TIPO | Description |
|---|---|---|
src |
pyspark.sql.Column o str |
Colonna di stringa da dividere. |
delimiter |
pyspark.sql.Column o str |
Colonna di stringa, delimitatore utilizzato per la divisione. |
partNum |
pyspark.sql.Column o str |
Colonna di stringa, richiesta parte della divisione (basata su 1). |
Esempi
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("11.12.13", ".", 3,)], ["a", "b", "c"])
df.select("*", dbf.split_part("a", "b", "c")).show()
df.select("*", dbf.split_part(df.a, df.b, dbf.lit(-2))).show()