datanode扩容步骤

Posted kisf

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了datanode扩容步骤相关的知识,希望对你有一定的参考价值。

新扩容机器规划:

 

hostname ip 进程
slave3 10.183.225.167 datanode,nodemange

1. 修改/etc/hosts

增加新扩容机器的hostname

10.183.225.167 slave3

2. 将/etc/hosts同步到其他服务器

scp /etc/hosts slave3:/etc/

3. 将hadoop拷贝至slave3

scp -r /xxx/soft/hadoop-2.7.3 slave3:/xxx/soft/

4. 将jsvc拷贝至slave3(安全模式datanode需要通过jsvc启动)

scp -r /xxx/soft/commons-daemon-1.0.15-src slave3:/xxx/soft/

5. kadmin添加pricipal

kadmin.local
addpric -randkey root/slave3@JENKIN.COM
addpric -randkey host/slave3@JENKIN.COM

xst -norandkey -k /var/kerberos/krb5kdc/keytab/root.keytab root/slave3@JENKIN.COM host/slave3@JENKIN.COM

6. 测试principal  

kinit -k -t /var/kerberos/krb5kdc/keytab/root.keytab root/slave3@JENKIN.COM

7. 将keytab同步其他服务器

scp /var/kerberos/krb5kdc/keytab/root.keytab slave3:/var/kerberos/krb5kdc/keytab/
scp /var/kerberos/krb5kdc/keytab/root.keytab master2:/var/kerberos/krb5kdc/keytab/
scp /var/kerberos/krb5kdc/keytab/root.keytab slave2:/var/kerberos/krb5kdc/keytab/

8. 启动datanode

./sbin/start-secure-dns.sh

9. 启动nodemanage

./sbin/yarn-daemon.sh start nodemanager

10. 验证

[root@slave3 ~]# hadoop fs -put ./installweb-fix.sh hdfs://ns/
[root@slave3 ~]# hadoop fs -ls /
Found 2 items
-rw-r--r--   2 root supergroup       1366 2017-09-07 00:48 /README.txt
-rw-r--r--   2 root supergroup        445 2017-09-08 11:28 /installweb-fix.sh

  

 

 

  

  

  

  

  

  

  

以上是关于datanode扩容步骤的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop3 - HDFS DataNode 动态扩容和缩容

Hadoop3 - HDFS DataNode 动态扩容和缩容

Hadoop3 - HDFS DataNode 动态扩容和缩容

hdfs datanode通过添加数据盘扩容

HDFS服役新数据节点和退役旧节点步骤

你知道的Go切片扩容机制可能是错的