Spark(scala):groupby和聚合值列表到一个基于索引的列表[重复]

Posted

技术标签:

【中文标题】Spark(scala):groupby和聚合值列表到一个基于索引的列表[重复]【英文标题】:Spark (scala): groupby and aggregate list of values to one list based on index [duplicate] 【发布时间】:2018-04-15 15:21:29 【问题描述】:

我有以下数据框:

root
 |-- visitor: string (nullable = true)
 |-- asset: array (nullable = true)
 |    |-- element: string (containsNull = true)

我正在尝试将共享相似索引(访问者)的值列表分组为原始列表类型(数组)的单个列表。

示例:

val rawData1 = Seq(("visitor1",Array("item1","item2","item3","item4")),("visitor2",Array("item1","item2","item3")))
val rawData2 = Seq(("visitor1",Array("item1","item2","item5")),("visitor2",Array("item4","item7")))
val df1 = spark.createDataFrame(rawData1).toDF("visitor","asset")
val df2 = spark.createDataFrame(rawData2).toDF("visitor","asset")
val dfJoined = df1.union(df2)
dfJoined.groupBy("visitor").agg(collect_list("asset"))

我得到的是:

visitor collect_list(asset)
visitor2    [WrappedArray(item1, item2, item3), WrappedArray(item4, item7)]
visitor1    [WrappedArray(item1, item2, item3, item4), WrappedArray(item1, item2, item5)]

但我不希望资产列中有两个子列表,我希望将两个列表的所有值组合为一个具有原始类型(数组)的列表。

谢谢!

【问题讨论】:

【参考方案1】:

一种选择是在合并之前将df1df2explode 合并,然后进行聚合:

(df1.withColumn("asset", explode($"asset"))
    .union(df2.withColumn("asset", explode($"asset")))
    .groupBy("visitor")
    .agg(collect_list("asset"))
).show(false)

+--------+-------------------------------------------------+
|visitor |collect_list(asset)                              |
+--------+-------------------------------------------------+
|visitor2|[item1, item2, item3, item4, item7]              |
|visitor1|[item1, item2, item3, item4, item1, item2, item5]|
+--------+-------------------------------------------------+

【讨论】:

以上是关于Spark(scala):groupby和聚合值列表到一个基于索引的列表[重复]的主要内容,如果未能解决你的问题,请参考以下文章

Spark Scala数据框具有单个Group By的多个聚合[重复]

如何使用group by聚合spark中的结构数组

JAVA spark数据集中的GroupBy和聚合函数

Spark Dataframe GroupBy 和计算复杂聚合函数

解释 Spark 中的聚合功能(使用 Python 和 Scala)

读取 json col 和直接数据值列