PySpark 一次替换多列中的值

Posted

技术标签:

【中文标题】PySpark 一次替换多列中的值【英文标题】:PySpark replace value in several column at once 【发布时间】:2019-04-12 02:37:47 【问题描述】:

我想用另一个值替换数据框列中的一个值,并且我必须为许多列(比如说 30/100 列)这样做

我已经通过了this 和this。

from pyspark.sql.functions import when, lit, col

df = sc.parallelize([(1, "foo", "val"), (2, "bar", "baz"), (3, "baz", "buz")]).toDF(["x", "y", "z"])
df.show()

# I can replace "baz" with Null separaely in column y and z
def replace(column, value):
    return when(column != value, column).otherwise(lit(None))

df = df.withColumn("y", replace(col("y"), "baz"))\
    .withColumn("z", replace(col("z"), "baz"))
df.show()    

我可以在 y 列和 z 列中分别用 Null 替换“baz”。但我想对所有列都这样做 - 类似于下面的列表理解方式

[replace(df[col], "baz") for col in df.columns]

【问题讨论】:

【参考方案1】:

由于大约有 30/100 列,所以让我们在 DataFrame 中添加更多列以很好地概括它。

# Loading the requisite packages
from pyspark.sql.functions import col, when
df = sc.parallelize([(1,"foo","val","baz","gun","can","baz","buz","oof"), 
                     (2,"bar","baz","baz","baz","got","pet","stu","got"), 
                     (3,"baz","buz","pun","iam","you","omg","sic","baz")]).toDF(["x","y","z","a","b","c","d","e","f"])
df.show()
+---+---+---+---+---+---+---+---+---+ 
|  x|  y|  z|  a|  b|  c|  d|  e|  f| 
+---+---+---+---+---+---+---+---+---+ 
|  1|foo|val|baz|gun|can|baz|buz|oof| 
|  2|bar|baz|baz|baz|got|pet|stu|got| 
|  3|baz|buz|pun|iam|you|omg|sic|baz| 
+---+---+---+---+---+---+---+---+---+

假设我们想在除xa 之外的所有列中使用replace bazNull。使用list comprehensions 选择必须在其中完成replacement 的列。

# This contains the list of columns where we apply replace() function
all_column_names = df.columns
print(all_column_names)
    ['x', 'y', 'z', 'a', 'b', 'c', 'd', 'e', 'f']
columns_to_remove = ['x','a']
columns_for_replacement = [i for i in all_column_names if i not in columns_to_remove]
print(columns_for_replacement)
    ['y', 'z', 'b', 'c', 'd', 'e', 'f']

最后,使用when() 进行替换,这实际上是if 子句的化名。

# Doing the replacement on all the requisite columns
for i in columns_for_replacement:
    df = df.withColumn(i,when((col(i)=='baz'),None).otherwise(col(i)))
df.show()
+---+----+----+---+----+---+----+---+----+ 
|  x|   y|   z|  a|   b|  c|   d|  e|   f| 
+---+----+----+---+----+---+----+---+----+ 
|  1| foo| val|baz| gun|can|null|buz| oof| 
|  2| bar|null|baz|null|got| pet|stu| got| 
|  3|null| buz|pun| iam|you| omg|sic|null| 
+---+----+----+---+----+---+----+---+----+

如果可以使用普通的if-else 子句完成替换,则无需创建UDF 并定义一个函数来进行替换。 UDFs 通常是一项代价高昂的操作,应尽可能避免。

【讨论】:

【参考方案2】:

使用reduce() 函数:

from functools import reduce

reduce(lambda d, c: d.withColumn(c, replace(col(c), "baz")), [df, 'y', 'z']).show()
#+---+----+----+
#|  x|   y|   z|
#+---+----+----+
#|  1| foo| val|
#|  2| bar|null|
#|  3|null| buz|
#+---+----+----+

【讨论】:

【参考方案3】:

您可以使用select 和列表理解:

df = df.select([replace(f.col(column), 'baz').alias(column) if column!='x' else f.col(column)
                for column in df.columns])
df.show()

【讨论】:

以上是关于PySpark 一次替换多列中的值的主要内容,如果未能解决你的问题,请参考以下文章

Pyspark:用字典中的值替换列的值

用列表 Pyspark Dataframe 中的值替换 NA

Pyspark 通过使用另一列中的值替换 Spark 数据框列中的字符串

PySpark 更新某些列的值

如何在多列上旋转 PySpark 中的 DataFrame?

如何使用分隔符连接 PySpark 中的多列?