提取列值并将其作为 Spark 数据帧中的数组分配给另一列

Posted

技术标签:

【中文标题】提取列值并将其作为 Spark 数据帧中的数组分配给另一列【英文标题】:Extract a column value and assign it to another column as an array in Spark dataframe 【发布时间】:2016-12-23 02:26:20 【问题描述】:

我有一个包含以下列的 Spark 数据框。

C1 | C2 | C3| C4
1  | 2  | 3 | S1
2  | 3  | 3 | S2
4  | 5  | 3 | S2

我想通过从 C4 列中获取不同的值来生成另一列 C5 像 C5

[S1,S2]
[S1,S2]
[S1,S2]

有人可以帮助我如何使用 Scala 在 Spark 数据框中实现这一点吗?

【问题讨论】:

你能解释一下与C4的关系,S2是如何在C5中生成的。如果 C4 中存在超过 2 个不同的值怎么办? 这篇文章已经在Assigning columns to another columns in a Spark Dataframe using Scala讨论过。 【参考方案1】:

您可能希望首先从第 4 列收集不同的项目并将它们放入一个列表中,然后使用 withColumn 创建一个新列 C5,方法是创建一个始终返回一个常量列表的 udf

val uniqueVal = df.select("C4").distinct().map(x => x.getAs[String](0)).collect.toList    
def myfun: String => List[String] = _ => uniqueVal 
def myfun_udf = udf(myfun)

df.withColumn("C5", myfun_udf(col("C4"))).show

+---+---+---+---+--------+
| C1| C2| C3| C4|      C5|
+---+---+---+---+--------+
|  1|  2|  3| S1|[S2, S1]|
|  2|  3|  3| S2|[S2, S1]|
|  4|  5|  3| S2|[S2, S1]|
+---+---+---+---+--------+

【讨论】:

有没有办法使用 pyspark 做到这一点?

以上是关于提取列值并将其作为 Spark 数据帧中的数组分配给另一列的主要内容,如果未能解决你的问题,请参考以下文章

将列值分配给数据框中的变量

根据 CSV 记录从 Spark 数据帧中过滤一些数据

过滤包含Scala Spark数据帧中数组的列中的数组长度[重复]

我如何根据对象标签从这个排序数组中提取碰撞数据并将该对象分配给 C# 中的目标

从列表列表中提取元素并将其分配为熊猫数据框列中的值

控制 spark-sql 和数据帧中的字段可空性