获取由 PySpark Dataframe 上的另一列分组的列的不同元素

Posted

技术标签:

【中文标题】获取由 PySpark Dataframe 上的另一列分组的列的不同元素【英文标题】:Get the distinct elements of a column grouped by another column on a PySpark Dataframe 【发布时间】:2019-11-13 21:58:42 【问题描述】:

我有一个包含 id 和购买的 pyspark DF,我正在尝试对其进行转换以用于 FP 增长。 目前,对于给定的 id,我有多行,每行仅与一次购买有关。

我想将此数据框转换为有两列的形式,一列用于 id(每个 id 有一行),第二列包含该 id 的不同购买列表。

我尝试使用用户定义函数 (UDF) 将不同的购买映射到不同的 id,但我得到“py4j.Py4JException: Method getstate([]) 不存在”。感谢@Mithril 我看到“你不能在 udf 和 pandas_udf 中使用 sparkSession 对象、spark.DataFrame 对象或其他 Spark 分布式对象,因为它们是 unpickled 的。”

所以我在下面实现了 TERRIBLE 方法(可以使用但不可扩展):

#Lets create some fake transactions
customers  = [1,2,3,1,1]
purschases = ['cake','tea','beer','fruit','cake']

# Lets create a spark DF to capture the transactions
transactions = zip(customers,purschases)
spk_df_1 = spark.createDataFrame(list(transactions) , ["id", "item"])

# Lets have a look at the resulting spark dataframe
spk_df_1.show()

# Lets capture the ids and list of their distinct pruschases in a 
# list of tuples
purschases_lst = []
nums1 = []
import pyspark.sql.functions as f

# for each distinct id lets get the list of their distinct pruschases

for id in spark.sql("SELECT distinct(id) FROM TBLdf ").rdd.map(lambda row : row[0]).collect():
   purschase = df.filter(f.col("id") == id).select("item").distinct().rdd.map(lambda row : row[0]).collect()
   nums1.append((id,purschase))


# Lets see what our list of transaction tuples looks like  
print(nums1)
print("\n")

# lets turn the list of transaction tuples into a pandas dataframe
df_pd = pd.DataFrame(nums1)

# Finally lets turn our pandas dataframe into a pyspark Dataframe
df2 = spark.createDataFrame(df_pd)
df2.show()

输出:

+---+-----+
| id| item|
+---+-----+
|  1| cake|
|  2|  tea|
|  3| beer|
|  1|fruit|
|  1| cake|
+---+-----+

[(1, ['fruit', 'cake']), (3, ['beer']), (2, ['tea'])]


+---+-------------+
|  0|            1|
+---+-------------+
|  1|[fruit, cake]|
|  3|       [beer]|
|  2|        [tea]|
+---+-------------+

如果有人有任何建议,我将不胜感激。

【问题讨论】:

【参考方案1】:

这是collect_set 的任务,它创建了一组不重复的项目:

import pyspark.sql.functions as F

#Lets create some fake transactions
customers  = [1,2,3,1,1]
purschases = ['cake','tea','beer','fruit','cake']

# Lets create a spark DF to capture the transactions
transactions = zip(customers,purschases)
spk_df_1 = spark.createDataFrame(list(transactions) , ["id", "item"])
spk_df_1.show()

spk_df_1.groupby('id').agg(F.collect_set('item')).show()

输出:

+---+-----+
| id| item|
+---+-----+
|  1| cake|
|  2|  tea|
|  3| beer|
|  1|fruit|
|  1| cake|
+---+-----+

+---+-----------------+
| id|collect_set(item)|
+---+-----------------+
|  1|    [fruit, cake]|
|  3|           [beer]|
|  2|            [tea]|
+---+-----------------+

【讨论】:

以上是关于获取由 PySpark Dataframe 上的另一列分组的列的不同元素的主要内容,如果未能解决你的问题,请参考以下文章

pyspark/EMR 中大型 DataFrame 上的 collect() 或 toPandas()

Pyspark Dataframe 上的 Pivot String 列

在 Pyspark 中合并 DataFrame

PySpark数据分析基础:PySpark基础功能及DataFrame操作基础语法详解

PySpark:转换DataFrame中给定列的值

使用 Pyspark 从 REST API 获取数据到 Spark Dataframe