Spark RDD持久化

Posted EasonHeys_

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark RDD持久化相关的知识,希望对你有一定的参考价值。

1、RDD性质

RDD数据是过程数据,即计算得到后一个RDD时,前一个RDD就会被释放。如图就是当RDD4被计算出来RDD3就会被释放。

2、为什么要持久化呢?

如图,一个应用程序中存在两个collect,中间链路都调用了RDD3,可是在第一个collect执行完时,由于RDD时过程数据,RDD3已经被释放,所以执行第二个collect需要重新计算RDD1、RDD2、RDD3,这样就浪费资源。为了避免重新计算RDD3,则对RDD3进行持久化。

3、RDD持久化方法

rdd3.cache()                            # 等效于下一行代码
rdd3.persist(StorageLevel.MEMORY_ONLY)    # 在内存中持久化
rdd3.persist(StorageLevel.DISK_ONLY)    # 在硬盘中持久化

4、测试RDD持久化效果 

from pyspark import SparkConf, SparkContext

if __name__ == '__main__':
    def f(x):
        print("rdd1")
        return x * 10


    conf = SparkConf().setAppName("test").setMaster("local[*]")
    sc = SparkContext(conf=conf)
    rdd = sc.parallelize([1, 2, 3])
    rdd1 = rdd.map(f)
    rdd1.cache()
    rdd2 = rdd1.map(lambda x: -x)
    print(rdd2.collect())
    rdd3 = rdd1.map(lambda x: x+100)
    print(rdd3.collect())
    rdd1.persist()
rdd1
rdd1
rdd1
[-10, -20, -30]
[110, 120, 130]

此代码修改将f方法作为rdd1.map中的方法,通过运行代码可得,在对rdd1进行持久化的情况下,print("rdd1")只在第一次调用collect的时候执行,第二次调用collect时不被执行

以上是关于Spark RDD持久化的主要内容,如果未能解决你的问题,请参考以下文章

Spark 使用哪个内存部分来计算不会被持久化的 RDD

RDD的缓存,依赖,spark提交任务流程

Spark RDD持久化

Spark IMF传奇行动第18课:RDD持久化广播累加器总结

spark的调优

大数据之Spark:Spark Core