haddop完全分布式安装
Posted anyux
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了haddop完全分布式安装相关的知识,希望对你有一定的参考价值。
目录
集群规划
hdfs结构分析
1.NameNode 名称节点 master 管理其他节点。需要配置ssh免密管理
2.DateNode 数据节点
3.SecondaryNameNode 辅助名称节点
|主机名|ip|作用|
|-|-|-|
|s101|192.168.255.101|NameNode |
|s102|192.168.255.102|DateNode |
|s103|192.168.255.103|DateNode |
|s104|192.168.255.104|DateNode |
配置hosts文件
需要root权限
cat >/etc/hosts<<EOF
127.0.0.1 localhost
192.168.255.101 s101
192.168.255.102 s102
192.168.255.103 s103
192.168.255.104 s104
EOF
普通用户ssh免密管理
s101对所有节点(包括自己)需要免密登录
在s101上生成公私密钥对,把公钥发给所有节点(包括自己)的认证库中,通信时,公钥加密,私钥解密。
生成公私密钥对
#-t 加密算法
#-P 无密加密
#-f 指定私钥文件
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
对自己实现无密登录,添加公钥到认证库
cd ~/.ssh
cat id_rsa.pub >> authorized_keys
修改authorized_keys权限为755
cd ~/.ssh
chmod 755 authorized_keys
登录测试
ssh localhost
使用ssh-copy-id复制当前用户的公钥到远程主机指定用户的认证库中
ssh-copy-id centos@s102
#远程登录验证
ssh centos@s102
ssh-copy-id centos@s103
ssh centos@s103
ssh-copy-id centos@s104
ssh centos@s104
root用户ssh免密管理
切换root
生成公私密钥对
#-t 加密算法
#-P 无密加密
#-f 指定私钥文件
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
对自己实现无密登录,添加公钥到认证库
cd ~/.ssh
cat id_rsa.pub >> authorized_keys
修改authorized_keys权限为755
cd ~/.ssh
chmod 755 authorized_keys
登录测试
ssh localhost
使用ssh-copy-id复制当前用户的公钥到远程主机指定用户的认证库中
ssh-copy-id s102
#远程登录验证
ssh s102
ssh-copy-id s103
ssh s103
ssh-copy-id s104
ssh s104
同步/etc/hosts文件
内容如下
cat /etc/hosts
127.0.0.1 localhost
192.168.255.101 s101
192.168.255.102 s102
192.168.255.103 s103
192.168.255.104 s104
远程复制该文件到所有主机
root权限
scp /etc/hosts root@s102:/etc/hosts
scp /etc/hosts root@s103:/etc/hosts
scp /etc/hosts root@s104:/etc/hosts
#可登录查看
s101安装jdk
root权限
tar xf jdk-8u201-linux-x64.tar.gz
ln -s jdk1.8.0_201 jdk
echo -e '
#配置java环境变量' >> /etc/profile
echo -e 'export JAVA_HOME=/opt/jdk' >> /etc/profile
echo -e 'export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile
source /etc/profile
java -version
s101安装hadoop
wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz
tar xf hadoop-3.2.1.tar.gz
ln -s hadoop-3.2.1 hadoop
echo -e '
#配置hadoop环境变量' >> /etc/profile
echo -e 'export HADOOP_HOME=/opt/hadoop' >> /etc/profile
echo -e 'export PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile
echo -e 'export PATH=$PATH:$HADOOP_HOME/sbin' >> /etc/profile
source /etc/profile
配置文件
root权限
hdfs-site.xml
vim /opt/hadoop/etc/hadoop/hdfs-site.xml
<configuration>
<!--指定HDFS副本数量,这里只设置了一个节点(hadoop01)副本数量为1)-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
hadoop-env.sh
vim /opt/hadoop/etc/hadoop/hadoop-env.sh
echo 'export JAVA_HOME=/opt/jdk' >> /opt/hadoop/etc/hadoop/hadoop-env.sh
mapred-site.xml
vim /opt/hadoop/etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml
vim /opt/hadoop/etc/hadoop/yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>s101</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
hadoop逻辑格式化
hdfs namenode -format
测试hadoop
start-all.sh
jps
curl http://s101:50070/
通过scp同步/opt/hadoop文件
以上是关于haddop完全分布式安装的主要内容,如果未能解决你的问题,请参考以下文章