PySpark:使用过滤器功能后取一列的平均值
Posted
技术标签:
【中文标题】PySpark:使用过滤器功能后取一列的平均值【英文标题】:PySpark: Take average of a column after using filter function 【发布时间】:2015-09-13 14:06:36 【问题描述】:我正在使用以下代码来获取工资高于某个阈值的人的平均年龄。
dataframe.filter(df['salary'] > 100000).agg("avg": "age")
列年龄是数字(浮点数),但我仍然收到此错误。
py4j.protocol.Py4JJavaError: An error occurred while calling o86.agg.
: scala.MatchError: age (of class java.lang.String)
您知道不使用groupBy
函数和SQL 查询的其他方法来获取平均值等。
【问题讨论】:
【参考方案1】:聚合函数应该是一个值,一个列名是一个键:
dataframe.filter(df['salary'] > 100000).agg("age": "avg")
您也可以使用pyspark.sql.functions
:
from pyspark.sql.functions import col, avg
dataframe.filter(df['salary'] > 100000).agg(avg(col("age")))
也可以使用CASE .. WHEN
from pyspark.sql.functions import when
dataframe.select(avg(when(df['salary'] > 100000, df['age'])))
【讨论】:
【参考方案2】:你也可以试试这个:
dataframe.filter(df['salary'] > 100000).groupBy().avg('age')
【讨论】:
以上是关于PySpark:使用过滤器功能后取一列的平均值的主要内容,如果未能解决你的问题,请参考以下文章
PySpark - 将另一列的值作为 spark 函数的参数传递