了解 Spark 与 Hadoop

Posted

技术标签:

【中文标题】了解 Spark 与 Hadoop【英文标题】:Understanding Spark alongside Hadoop 【发布时间】:2014-11-11 15:05:21 【问题描述】:

在我的设置中,Hadoop 和 Spark 都在同一个网络上运行,但在不同的节点上。我们可以将 Spark 与您现有的 Hadoop 集群一起运行,只需将其作为单独的服务启动即可。它会显示性能上的任何改进吗?

我有数千个大约 10 GB 的文件加载到 HDFS 中。

我有 8 个节点用于 Hadoop,1 个主节点和 5 个工作节点用于 Spark

【问题讨论】:

【参考方案1】:

只要worker在同一个节点上,我们就有了Locality的优势。您也可以与 hadoop 一起启动您的服务。

【讨论】:

以上是关于了解 Spark 与 Hadoop的主要内容,如果未能解决你的问题,请参考以下文章

Spark与Hadoop的相爱相杀

一文带你快速了解 Spark 架构设计与原理思想

小白Spark工程师需要了解的Hadoop和YARN小知识

分享 || Hadoop与spark的异同

一文带你了解 Spark 架构设计与原理思想

一文带你了解 Spark 架构设计与原理思想