Spark亚太研究院系列丛书Spark实战高手之路-第一章 构建Spark集群(第五步)

Posted wgwyanfs

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark亚太研究院系列丛书Spark实战高手之路-第一章 构建Spark集群(第五步)相关的知识,希望对你有一定的参考价值。

7,在SparkWorker1和SparkWorker2上完毕和SparkMaster相同的Hadoop 2.2.0操作,建议使用SCP命令把SparkMaster上安装和配置的Hadoop的各项内容复制到SparkWorker1和SparkWorker2上;

8,启动并验证Hadoop分布式集群

第一步:格式化hdfs文件系统:

技术分享

技术分享

技术分享

第二步:进入sbin中启动hdfs,运行例如以下命令:

技术分享

启动步骤例如以下:

技术分享

此时我们发如今SparkMaster上启动了NameNode和SecondaryNameNode;

在SparkWorker1和SparkWorker2上均启动了DataNode:

技术分享

技术分享

此时訪问http://SparkMaster:50070 登录Web控制能够查看HDFS集群的状况:

技术分享

技术分享

技术分享


















以上是关于Spark亚太研究院系列丛书Spark实战高手之路-第一章 构建Spark集群(第五步)的主要内容,如果未能解决你的问题,请参考以下文章

Spark入门实战系列--8.Spark MLlib(上)--机器学习及SparkMLlib简介

倾情大奉送--Spark入门实战系列

倾情大奉送--Spark入门实战系列

Scala实战高手****第13课Scala模式匹配实战和Spark源码鉴赏

Scala实战高手****第6课 :零基础实战Scala集合操作及Spark源码解析

Scala实战高手****第14课Scala集合上的函数式编程实战及Spark源码鉴赏