Spark的几个问题

Posted zhangzl419

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark的几个问题相关的知识,希望对你有一定的参考价值。

1、application是由driver和executor组成的,executor可以分成task,task又可以分成为stage。当一个任务提交给spark之后,spark机群的主节点会出现driver进程,从节点会出现executor进程。

2、standalone部署之后,主节点进程是master,工作节点进程是worker

3、spark只有计算功能,它没有存储功能,所以它必须依赖于hdfs,在安装spark之前,必须先安装hadoop。

4、有了spark,就可以写spark程序来做数据处理工作了,就不需要用MapReduce来做了,因为spark的计算速度是MapReduce的100倍以上。

 

以上是关于Spark的几个问题的主要内容,如果未能解决你的问题,请参考以下文章

遇到的问题---spark---spark OutOfMemoryError: Java heap space

关于 Spark 问题的 HIVE

Spark 异常问题汇总

spark启动问题,发现任务都是在localhost下面运行的,原来启动spark-shell的时候需要带主节点的参数

Spark的几个问题

spark关于使用idea来编辑scala程序使用spark的问题