Hadoop学习之hadoop安装JDK安装集群启动(完全分布式)

Posted Apathfinder

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop学习之hadoop安装JDK安装集群启动(完全分布式)相关的知识,希望对你有一定的参考价值。

作者简介:大家好我是Apathfinder,目前是一名在校大学生,软件工程专业,记录学习路上的点点滴滴。
个人主页:Apathfinder

本文专栏:Hadoop学习
 


前言 :本文主要是对hadoop完全分布式环境安装过程中的hadoop安装以及JDK安装作详细的介绍,以及集群启动。

目录

正文

一.整体部署情况

二.JDK安装

1.下载JDK

2.上传JDK

3.安装JDK

1.解压

2.添加环境变量

3.验证安装 

三.Hadoop安装

1.下载hadoop

2.上传hadoop

3.安装hadoop

1.解压

2.添加环境变量

3.修改配置文件   

4.验证安装 

四.集群启动

1.传送文件

2.格式化namenode节点

3.集群的启动 

4.web端访问

1.访问9870端口(即50070)

2.访问8088端口

写在最后



正文

一.整体部署情况

hadoop完全分布式整体布局
hadoop01hadoop02hadoop03
HDFS

NameNode

DataNode

DataNode

SecondaryNameNode

DataNode

YARNNodeManager

ResourceManager

NodeManager

NodeManager

 以下操作在hadoop01节点上做(主节点),而后同步hadoop02,hadoop03

二.JDK安装

1.下载JDK

大家可以到官网选择相应版本下载 

Java Downloads | Oracle

我的安装版本如下图所示:

 


2.上传JDK

在这里我用了mobaxterm来远程登录hadoop01,然后将Windows上下好的JDK压缩包以及hadoop压缩包上传 

 

 上传成功后则能登录hadoop01查看,如图

3.安装JDK

1.解压

在上传了之后,咱们就进行安装,使用解压命令解压到指定目录

tar -zxvf jdk-8u333-linux-x64.tar.gz -C /usr/local/

 

2.添加环境变量

使用命令

vi  /etc/profile/ 

 打开文件,然后进行编辑,加入以下内容

export JAVA_HOME=/usr/local/jdk1.8.0_333
export PATH=$JAVA_HOME/bin:$PATH

 然后使用以下命令立即生效

source /etc/profile 

3.验证安装 

输入

java -version

验证是否安装成功,成功则如下图

三.Hadoop安装

1.下载hadoop

大家可以到官网选择相应版本下载

Apache Hadoop

我在这里下载的是hadoop3.3.3版本

2.上传hadoop

这里我在上传JDK的同时与hadoop一起上传了,具体操作可以看JDK部分 

3.安装hadoop

1.解压

 解压命令改个名称就行

tar -zxvf hadoop-3.3.3.tar.gz -C /usr/local/

2.添加环境变量

与JDK操作相同,这里我就不过多叙述了,添加以下内容:

export HADOOP_HOME=/usr/local/hadoop-3.3.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

如下图底部: 

 

3.修改配置文件   

先切换到hadoop目录

cd /usr/local/hadoop-3.3.3/etc/hadoop

 然后进行下列配置文件的修改,用编辑命令即可

1.hadoop-env.sh 

以下命令编辑

vi hadoop-env.sh

加入

export JAVA_HOME=/usr/local/jdk1.8.0_333

2.yarn-env.sh

同上

3.mapred-env.sh

同上

4.core-site.xml

#在  <configuration></configuration> 之间加入

<!-- 指定HDFS中NameNode的地址 -->
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop01:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop-3.3.3/tmp</value>
</property>

5.hdfs-site.xml

<property>
        <name>dfs.replication</name>
        <value>2</value>
</property>
<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop03:50090</value>
</property>

6.yarn-site.xml

<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop02</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

7.mapred-site.xml

<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>

8.workers

vi workers

 加入以下内容

hadoop01 

hadoop02

hadoop03

4.验证安装 

 在终端输入hadoop后,出现如图所示则成功,即命令使用提示

 

四.集群启动

1.传送文件

将hadoop01上的JDK,hadoop所在目录传到hadoop02,hadoop03节点上,命令如下

scp -r  /usr/local/  root@hadoop02:/usr/
scp -r  /usr/local/  root@hadoop03:/usr/ 


#同步环境配置文件
rsync  -rvl  /etc/profile  root@hadoop02:/etc/profile 
rsync  -rvl  /etc/profile  root@hadoop03:/etc/profile 

 

然后与之前步骤一样验证hadoop02,03机上是否成功安装

2.格式化namenode节点

先切换到指定目录下 

cd /usr/local/hadoop-3.3.3

然后格式化

hadoop  namenode  -format     #格式化NameNode

3.集群的启动 

为了偷懒,我使用start-all.sh来启动集群 ,每次在web访问完后,stop-all.sh关闭集群,下次启动集群访问,就不再需要格式化namenode。

启动集群之后,可以使用jps来查看是否每个节点都成功启动相应的服务。如下图:

 

4.web端访问

为了访问方便,你可以在C:\\Windows\\System32\\drivers\\etc\\hosts文件下做映射,加上IP与主机名,

        hadoop3.x.x版本端口50070改为了9870

1.访问9870端口(即50070)

在浏览器输入hadoop01:9870

 

 

2.访问8088端口

在浏览器输入hadoop02:8088

 


写在最后

        今天的文章就到这里,如果你觉得写的不错,可以动动小手给博主一个免费的关注和点赞👍;如果你觉得存在问题的话,欢迎在下方评论区指出和讨论。
        谢谢观看,你的支持就是我前进的动力!


以上是关于Hadoop学习之hadoop安装JDK安装集群启动(完全分布式)的主要内容,如果未能解决你的问题,请参考以下文章

大数据学习之MapReduce基础与Yarn集群安装09

大数据Hadoop学习之搭建Hadoop平台(2.1)

Hadoop学习之Windows单机版安装

hadoop入门学习系列之六hadoop学习之sqoop安装

Hadoop学习之Mapreduce安装

Hadoop配置第1节-JDK的安装