深入理解spark-rdd详解

Posted yankang

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深入理解spark-rdd详解相关的知识,希望对你有一定的参考价值。

 

1.我们在使用spark计算的时候,操作数据集的感觉很方便是因为spark帮我们封装了一个rdd(弹性分布式数据集Resilient Distributed Dataset);

那么rdd数据本身是如何存储的呢,又是如何调度读取的?

 

spark大部分时候都是在集群上上运行的,那么数据本身一定是也是分布式存储的,数据是由每个Excutor的去管理多个block的,而元数据本身是由driver的blockManageMaster来管理,当每个excutor创建的时候也会创建相对应的数据集管理服务blockManagerSlave,当使用某一些block时候,slave端会创建block并向master端去注册block,同理删除某些block时候,master向slave端发出申请,再有slave来删除对应的block数据。由此可见,实际上物理数据都excutor上,数据的关系管理由driver端来管理。

 

rdd架构图如下:

技术分享图片

 

 

未完待续。。。。。

 

以上是关于深入理解spark-rdd详解的主要内容,如果未能解决你的问题,请参考以下文章

深入理解spark streaming

深入探究Spark -- RDD详解

spark 深入学习 03Spark RDD的蛮荒世界

spark 深入学习 05RDD编程之旅基础篇02-Spaek shell

Spark笔记:复杂RDD的API的理解(上)

Apache Spark 内存管理详解