Spark(scala):groupby和聚合值列表到一个基于索引的列表[重复]
Posted
技术标签:
【中文标题】Spark(scala):groupby和聚合值列表到一个基于索引的列表[重复]【英文标题】:Spark (scala): groupby and aggregate list of values to one list based on index [duplicate] 【发布时间】:2018-04-15 15:21:29 【问题描述】:我有以下数据框:
root
|-- visitor: string (nullable = true)
|-- asset: array (nullable = true)
| |-- element: string (containsNull = true)
我正在尝试将共享相似索引(访问者)的值列表分组为原始列表类型(数组)的单个列表。
示例:
val rawData1 = Seq(("visitor1",Array("item1","item2","item3","item4")),("visitor2",Array("item1","item2","item3")))
val rawData2 = Seq(("visitor1",Array("item1","item2","item5")),("visitor2",Array("item4","item7")))
val df1 = spark.createDataFrame(rawData1).toDF("visitor","asset")
val df2 = spark.createDataFrame(rawData2).toDF("visitor","asset")
val dfJoined = df1.union(df2)
dfJoined.groupBy("visitor").agg(collect_list("asset"))
我得到的是:
visitor collect_list(asset)
visitor2 [WrappedArray(item1, item2, item3), WrappedArray(item4, item7)]
visitor1 [WrappedArray(item1, item2, item3, item4), WrappedArray(item1, item2, item5)]
但我不希望资产列中有两个子列表,我希望将两个列表的所有值组合为一个具有原始类型(数组)的列表。
谢谢!
【问题讨论】:
【参考方案1】:一种选择是在合并之前将df1
和df2
与explode
合并,然后进行聚合:
(df1.withColumn("asset", explode($"asset"))
.union(df2.withColumn("asset", explode($"asset")))
.groupBy("visitor")
.agg(collect_list("asset"))
).show(false)
+--------+-------------------------------------------------+
|visitor |collect_list(asset) |
+--------+-------------------------------------------------+
|visitor2|[item1, item2, item3, item4, item7] |
|visitor1|[item1, item2, item3, item4, item1, item2, item5]|
+--------+-------------------------------------------------+
【讨论】:
以上是关于Spark(scala):groupby和聚合值列表到一个基于索引的列表[重复]的主要内容,如果未能解决你的问题,请参考以下文章
Spark Scala数据框具有单个Group By的多个聚合[重复]
Spark Dataframe GroupBy 和计算复杂聚合函数