Spark RDD Action操作
Posted wangziqiang123
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark RDD Action操作相关的知识,希望对你有一定的参考价值。
reduce
def reduce(f: (T, T) => T): T
通过func函数聚集RDD中的所有元素,这个功能必须是可交换且可并联的
|
|
collect
def collect(): Array[T]
在驱动程序中,以数组的形式返回数据集的所有元素
count
def count(): Long
返回RDD中的元素个数
first
def first(): T 返回RDD中的第一个元素
take
def take(num: Int): Array[T] 返回RDD中的前n个元素
takeOrdered
def takeOrdered(num: Int)(implicit ord: Ordering[T]) 返回前几个的排序
takeSample
def takeSample( withReplacement: Boolean, num: Int, seed: Long = Utils.random.nextLong): Array[T] 抽样但是返回一个scala集合。
aggregate
def aggregateU: ClassTag(seqOp: (U, T) => U, combOp: (U, U) => U): U aggregate函数将每个分区里面的元素通过seqOp和初始值进行聚合,然后用combine函数将每个分区的结果和初始值(zeroValue)进行combine操作。这个函数最终返回的类型不需要和RDD中元素类型一致。
fold
def fold(zeroValue: T)(op: (T, T) => T): T 折叠操作,aggregate的简化操作,seqop和combop一样。
saveAsTextFile
def saveAsTextFile(path: String): Unit 将RDD以文本文件的方式保存到本地或者HDFS中
saveAsObjectFile
def saveAsObjectFile(path: String): Unit 将RDD中的元素以序列化后对象形式保存到本地或者HDFS中。
countByKey
def countByKey(): Map[K, Long] 针对(K,V)类型的RDD,返回一个(K,Int)的map,表示每一个key对应的元素个数。
foreach
def foreach(f: T => Unit): Unit 在数据集的每一个元素上,运行函数func进行更新。
以上是关于Spark RDD Action操作的主要内容,如果未能解决你的问题,请参考以下文章
Spark 中Transformation Action操作 以及RDD的持久化
Spark的transformation 和 action的操作学习笔记
03操作RDD(transformation和action案例实战)
pyspark3.0.0+spark3.0.0学习01(RDD的创建,RDD算子(常用Transformation算子 常用Action算子 分区操作算子)的学习及应用)