hadoop集群安装

Posted itman-blogs

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop集群安装相关的知识,希望对你有一定的参考价值。

 

:一、安装jdk环境(前提)

二、安装hadoop(hadoop-2.7.7.tar.gz)

  1. 角色分配(3节点搭建)

  node-1  NameNode  DataNode  ResourceManager

  node-2  DataNode  NodeManager   SecondaryNameNode

  node-3  DataNode  NodeManager

技术图片

 

  技术图片

  在三台服务器中配置主机名映射

   注意:要保证三个节点时间同步,node-1,node-2,node-3为各个主机名,node-1为主服务器,其余为从服务器,可配置主服务器到从服务器之间免密登录

  ssh-keygen -t rsa(四个回车)  ssh-copy-id node-2(ssh-copy-id node-3)

  2. 上传并解压hadoop-2.7.7.tar.gz(本人解压在/usr/local/java目录下),目录结构如下:

  技术图片

  bin:Hadoop最基本的管理脚本和使用脚本的目录

  etcHadoop配置文件的目录

  include对外提供的编程库头文件(通常用于c++程序访问HDFS或者编写MapReduce程序)

  lib包含了Hadoop对外提供的编程动态库和静态库,与include结合使用

  libexec各个服务用的shell配置文件所在目录,可用于配置日志输出,启动参数等信息

  sbinHadoop管理脚本所在的目录,主要包含HDFS和yarn中各类服务的启动/关闭脚本

  shareHadoop各个模块编译后的jar包所在目录

  3. 修改配置文件

    3.1、hadoop-env.sh

    技术图片

    修改此配置项,改为本机jdk的安装路径,本人为/usr/local/java/jdk

    技术图片

    3.2、core-site.xml

    技术图片

    3.3、hdfs-site.xml

    技术图片

 

    3.4、mapred-site.xml

    mv mapred-site.xml.template mapred-site.xml

    技术图片

    3.5、yarn-site.xml

    技术图片

 

    3.6、slaves

    将该文件中的内容替换成三个节点的主机名

    技术图片

  4. 将hadoop添加到环境变量中

  技术图片

  5. 将配置好的hadoop文件复制到其余从节点上(本人是从node-1复制到node-2和node-3上)

  scp -r /usr/local/java/hadoop [email protected]:/usr/local/java/

  scp -r /usr/local/java/hadoop [email protected]:/usr/local/java/

  每个服务器上添加hadoop的环境变量

 三、启动

  首次启动HDFS,需要在主节点(namenode)上对其进行格式化(格式化只能进行一次)  hdfs namenode -format或者hadoop namenode -format

  如果使用一键启动,需要配置免密登录和修改slaves文件

技术图片

 四、UI界面

  NameNode`  访问NameNode所在服务器的50070端口

  ResourceManager  访问ResourceManager所在服务器的8088端口

  技术图片

 

 技术图片

 

以上是关于hadoop集群安装的主要内容,如果未能解决你的问题,请参考以下文章

HBase集群安装及集成

Hadoop集群及组件

大数据实战——hadoop集群安装搭建

如何查看hadoop集群是不是安装成功(用jps命令

Spark集群安装-基于hadoop集群

spark集群安装并集成到hadoop集群