spark运行架构和基础

Posted 加林so cool

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark运行架构和基础相关的知识,希望对你有一定的参考价值。

目录

基本 概念

架构设计

 spark运行的基本流程


基本 概念

  1. RDD:(官方概念)弹性分布式数据集,就是一个个的在内存里的数据。就是数据的基本单位,所有spark都是来操作他的
  2. DAG 是有向无环图,它的作用主要是反应rdd之间的关系。
  3. Excutor 就是一个容器,就像Hadoop的node一样,用来运行的
  4. 应用 顾名思义来编写spark程序的
  5. 任务 运行的excutor单元

架构设计

如图

整个图一目了然,spark的架构,关于hdfs和hebase是一种可以读取的源数据类型,除此之外还有很多类型也会被这个读取比如Kafka,或者套接字流,当然这些数据源大概率都会在sparkstreaming里体现。

 不止一次说过继续强调一遍,与Hadoop相比,spark读写基本上都是发生在内存里,所以更快。

 spark运行的基本流程

1.当一个spark被提交时,driver会先创造一个sparkcontext的对象,由它向资源管理器进行资源的申请,然后他就辉获得Excutor的资源,总而言之一个sparkcontext就像中场球员串联全场。

2.资源管理器--->excutor分配资源,excutor——>资源管理器运行的信息。

3.sparkcontext 根据rdd的依赖关系构建dag图,由dag图让所有资源得以利用。

 这个图摘自林子雨主编的spark

总而言之,spark框架有以下集中特点

1.每个应用都有自己专属的excutor,而且每个任务都是多线程而不是多进程从而节省很多资源,

2.还有一点我一直强调的就是spark的运行速度快是因为把东西都放在内存里了,此时就有一个BlockManager的模块类似于hdfs的模块从而实现的数据的读取.

3.计算向数据靠拢(具体在后面的文章讲

以上是关于spark运行架构和基础的主要内容,如果未能解决你的问题,请参考以下文章

Spark基础学习笔记03:Spark运行架构及原理

Spark基础知识

spark架构原理

Spark:基础知识01

Spark Streaming架构设计和运行机制总结

实验 1 Linux 系统的安装和常用命令