PySpark:使用过滤器功能后取一列的平均值

Posted

技术标签:

【中文标题】PySpark:使用过滤器功能后取一列的平均值【英文标题】:PySpark: Take average of a column after using filter function 【发布时间】:2015-09-13 14:06:36 【问题描述】:

我正在使用以下代码来获取工资高于某个阈值的人的平均年龄。

dataframe.filter(df['salary'] > 100000).agg("avg": "age")

列年龄是数字(浮点数),但我仍然收到此错误。

py4j.protocol.Py4JJavaError: An error occurred while calling o86.agg. 
: scala.MatchError: age (of class java.lang.String)

您知道不使用groupBy 函数和SQL 查询的其他方法来获取平均值等。

【问题讨论】:

【参考方案1】:

聚合函数应该是一个值,一个列名是一个键:

dataframe.filter(df['salary'] > 100000).agg("age": "avg")

您也可以使用pyspark.sql.functions:

from pyspark.sql.functions import col, avg

dataframe.filter(df['salary'] > 100000).agg(avg(col("age")))

也可以使用CASE .. WHEN

from pyspark.sql.functions import when

dataframe.select(avg(when(df['salary'] > 100000, df['age'])))

【讨论】:

【参考方案2】:

你也可以试试这个:

dataframe.filter(df['salary'] > 100000).groupBy().avg('age')

【讨论】:

以上是关于PySpark:使用过滤器功能后取一列的平均值的主要内容,如果未能解决你的问题,请参考以下文章

过滤 Pyspark 中列的动态唯一组合

PySpark - 将另一列的值作为 spark 函数的参数传递

如何找到过滤列的条件最小值?

从过滤表的一列复制/粘贴/计算可见单元格

使用带有过滤器和其他列的 pyspark 将 CSV 转换为 JSON [关闭]

PySpark:使用 isin 过滤返回空数据框