Spark和MR的区别

Posted 江湖再现

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark和MR的区别相关的知识,希望对你有一定的参考价值。

Spark是借鉴了mapreduce并在其基础上发展起来的,继承了其分布式计算的优点并改进了mapreduce明显的缺陷,但是二者也有不少的差异具体如下:

1、spark把运算的中间数据存放在内存,迭代计算效率更高;mapreduce的中间结果需要落地,需要保存到磁盘,这样必然会有磁盘io操做,影响性能

2、spark容错性高,它通过弹性分布式数据集RDD来实现高效容错,RDD是一组分布式的存储在节点内存中的只读性质的数据集,这些集合是弹性的,某一部分丢失或者出错,可以通过整个数据集的计算流程的血缘关系来实现重建;mapreduce的话容错可能只能重新计算了,成本较高

3、spark更加通用,spark提供了transformation和action这两大类的多个功能api;mapreduce只提供了map和reduce两种操作

4、spark框架和生态更为复杂,首先有RDD、血缘lineage、执行时的有向无环图DAG、stage划分等,很多时候spark作业都需要根据不同业务场景的需要进行调优已达到性能要求;mapreduce框架及其生态相对较为简单,对性能的要求也相对较弱,但是运行较为稳定,适合长期后台运行

总结,spark生态更为丰富,功能更为强大、性能更佳,适用范围更广;mapreduce更简单、稳定性好、适合离线海量数据挖掘计算。

了解更多大数据培训就业面试相关问题欢迎关注小编!

以上是关于Spark和MR的区别的主要内容,如果未能解决你的问题,请参考以下文章

Spark 和 MR 的区别: 多进程与多线程模型

MR的shuffle和Spark的shuffle之间的区别

hadoop和spark的都是并行计算,有啥相同和区别?

Mr与spark的shuffle过程详解及对比

Mr与spark的shuffle过程详解及对比

Spark(12)——Spark为什么比MR快