Spark RDD
Posted mzzcy
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark RDD相关的知识,希望对你有一定的参考价值。
梗概:
RDD 其实就是分布式的元素集合。
在Spark中,对数据的所有操作不外乎创建RDD、转化已有RDD 以及 调用RDD 操作进行求值。而在这一切背后,Spark会自动将RDD中的数据分发到集群上,并将操作并行化执行。
RDD就是一个不可变的分布式对象集合。每个RDD都被分为多个分区,这些分区运行在集群中的不同节点上。
RDD的创建:a. 读取一个外部数据集;b. 在驱动器程序里分发驱动器程序中的对象集合(比如 list 和 set) ;
RDD支持两种类型的操作:转化操作(transformation) 和 行动操作(action);
a. 转化操作会由一个RDD 生成一个 新的RDD;如filter():
//调用转化操作 filter() >>> pythonLines = lines.filter(lambda line: "Python" in line)
b. 行动操作会对RDD计算出一个结果;并把结果返回到驱动器程序中,或把结果存储到外部存储系统(如 HDFS)中。
惰性计算:新产生的RDD在转化操作中并没有真正计算,只有在行动操作中使用到了才去计算,并在转化到操作的整个操作链中优化计算。如:
//调用转化操作 filter() >>> pythonLines = lines.filter(lambda line: "Python" in line) //调用 first() 行动操作 >>> pythonLines.first() //在行动操作 first() 中,Spark 只需要扫描文件直到找到第一个匹配的行为止,而不需要读取整个文件
默认情况下,Spark 的RDD会在你每次对它们进行行动操作时重新计算。
以上是关于Spark RDD的主要内容,如果未能解决你的问题,请参考以下文章