pyspark中的dataframe的观察操作

Posted lee-yl

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了pyspark中的dataframe的观察操作相关的知识,希望对你有一定的参考价值。

1、读取:

  • sparkDF = spark.read.csv(path)
  • sparkDF = spark.read.text(path)

2、打印:

sparkDF.show()【这是pandas中没有的】:打印内容

sparkDF.head():打印前面的内容

sparkDF.describe():统计信息

sparkDF.printSchema():打印schema,列的属性信息打印出来【这是pandas中没有的】

sparkDF.columns:将列名打印出来

3、选择列

【select函数,原pandas中没有】

sparkDF.select(‘列名1‘,‘列名2‘).show():选择dataframe的两列数据显示出来

sparkDF.select ( sparkDF[‘列名1‘]+1 , ‘列名2‘ ).show():直接对列1进行操作(值+1)打印出来

技术分享图片

 

4、筛选列:

filter【类似pandas中dataframe的采用列名来筛选功能】

sparkDF.filter ( sparkDF[‘value‘] == 100 ).show():将value这一列值为100的行筛选出来

技术分享图片

 

 5、计算不重复值以及统计dataframe的行数

 distinct()函数:将重复值去除

sparkDF.count():统计dataframe中有多少行

技术分享图片

将评分为100的电影数量统计出来:

技术分享图片

 

以上是关于pyspark中的dataframe的观察操作的主要内容,如果未能解决你的问题,请参考以下文章

从 pyspark 中的数据框数组类型列中获取“名称”元素

PySpark|比RDD更快的DataFrame

在 PySpark 中对 DataFrame 进行逐行操作

PySpark:如何删除 DataFrame 中的非数字列?

PySpark 中的 Groupby 和 UDF/UDAF,同时保持 DataFrame 结构

PySpark数据分析基础:PySpark基础功能及DataFrame操作基础语法详解