spark wordcont Spark: sortBy和sortByKey函数详解

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark wordcont Spark: sortBy和sortByKey函数详解相关的知识,希望对你有一定的参考价值。

   val res =  sc.textFile("D:\\test\\spark\\urlCount").flatMap(_.split("\\s"))
     .map((_,1)).reduceByKey(_+_).map(t=>(t._2,t._1)).sortByKey().top(10)

在很多应用场景都需要对结果数据进行排序,Spark中有时也不例外。在Spark中存在两种对RDD进行排序的函数,分别是 sortBy和sortByKey函数。sortBy是对标准的RDD进行排序,它是从Spark 0.9.0之后才引入的(可以参见SPARK-1063)。而sortByKey函数是对PairRDD进行排序,也就是有Key和Value的RDD。下面将分别对这两个函数的实现以及使用进行说明。

当组成keyval对之后只能用sortBykey实现了

以上是关于spark wordcont Spark: sortBy和sortByKey函数详解的主要内容,如果未能解决你的问题,请参考以下文章

科普Spark,Spark是什么,如何使用Spark

Spark面试题——Spark资源调优

spark提交参数解析

科普Spark,Spark是啥,如何使用Spark

Spark系列

Spark-01 spark简介