Spark计算模型

Posted miranda-wu

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark计算模型相关的知识,希望对你有一定的参考价值。

通过一个经典的程序来说明

//输入与构造
RDD val file=sc.textFile("***")
//转换Transformation
val errors=file.filter(line=>line.contains("ERRORS")) 
//输出
Action  error.count()

从RDD的转换和存储角度看这个过程:

技术分享图片

 

用户程序对RDD通过多个函数进行操作,将RDD进行转换。

Block-Manager管理RDD的物理分区,每个Block就是节点上对应的一个数据块,可以存储在内存或者磁盘。

而RDD中的partition是一个逻辑数据块,对应相应的物理块Block。

本质上一个RDD在代码中相当于是数据的一个元数据结构,存储着数据分区及其逻辑结构映射关系,存储着RDD之前的依赖转换关系

后面依次介绍此模型中的各个关键组件

以上是关于Spark计算模型的主要内容,如果未能解决你的问题,请参考以下文章

python+spark程序代码片段

spark关于join后有重复列的问题(org.apache.spark.sql.AnalysisException: Reference '*' is ambiguous)(代码片段

spark计算模型

spark 随机森林 源码解析

spark 随机森林 源码解析

Spark计算模型