Linux环境下HDFS集群环境搭建关键步骤

Posted 星火燎原

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Linux环境下HDFS集群环境搭建关键步骤相关的知识,希望对你有一定的参考价值。

Linux环境下HDFS集群环境搭建关键步骤记录。

介质版本:hadoop-2.7.3.tar.gz

节点数量:3节点。

 

一、下载安装介质

官网下载地址:http://hadoop.apache.org/releases.html

 

二、服务器规划

MASTER:NAMENODE, DATANODE
NODE1:DATANODE
NODE2:SECONDARY NAMENODE, DATANODE

 

三、配置hostname和hosts

192.168.13.4 master
192.168.13.5 node1
192.168.13.2 node2

 

四、上传解压

将下载的安装介质上传至服务器并解压。

解压:tar zxvf hadoop-2.7.3.tar.gz

 

五、创建数据目录

mkdir /data/HDFS_DATAS
mkdir -p /data/HDFS_DATAS/data/tmp
chmod -R 755 HDFS_DATAS/

 

六、修改配置文件

配置core-site.xml
配置hdfs-site.xml
配置hadoop-env.sh
/usr/lib/jvm/java-8-openjdk-arm64/bin/java
/usr/lib/jvm/java-1.7.0-openjdk-arm64/bin/java
配置slaves

 

七、SSH免登录

ssh-keygen -t rsa
ssh-copy-id 192.168.13.6
ssh-copy-id 192.168.13.7
ssh-copy-id 192.168.13.8

 

八、SCP分发

scp -r hadoop-2.7.3/ [email protected]192.168.13.5:/opt/
scp -r hadoop-2.7.3/ [email protected]192.168.13.2:/opt/

 

九、格式化NameNode

./hadoop namenode -format

 

十、启动停止HDFS服务

cd <Hadoop_ROOT>/sbin

./start-dfs.sh

./stop-dfs.sh










以上是关于Linux环境下HDFS集群环境搭建关键步骤的主要内容,如果未能解决你的问题,请参考以下文章

Linux下Hadoop2.7.1集群环境的搭建(超详细版)

docker下,极速搭建spark集群(含hdfs集群)

Hadoop集群搭建

【大数据】使用Docker搭建Hadoop集群

centos7环境下zookeeper的搭建步骤之单机伪集群

如何在Linux下搭建hadoop集群环境 小残's Blog