HDFS与HBASE的动态节点的扩容(增删)小白级

Posted 稚何君

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了HDFS与HBASE的动态节点的扩容(增删)小白级相关的知识,希望对你有一定的参考价值。

上一篇文章,介绍了动态扩容前的基础配置。

本文将讲述HDFS和HBASE动态增删的具体内容。

一、HDFS动态增节点---slave3

 开始之前要保证其他节点开启Hadoop集群,毕竟是动态的嘛

  1.安装Hadoop  (slave3)

     把其他节点上的hadoop发送到slave3节点上

scp -r /usr/hadoop root@slave3:/usr/

 2.修改slaves文件(所有节点)

#加入slave3

vi  $HADOOP_HOME/etc/hadoop/slaves
slave1
slave2
slave3

3.启动节点  slave3

$HADOOP_HOME/sbin/hadoop-daemon.sh start datanode
$HADOOP_HOME/sbin/yarn-daemon.sh start nodemanager

4.查看状态  master

hdfs dfsadmin -refreshNodes
  hdfs dfsadmin -report

效果图:

也可以通过web端进行查看:

 二、HDFS动态删节点----slave2

在所有的节点上   

1.修改hdfs-site.xml文件

cd /usr/hadoop/hadoop-2.7.3/etc/hadoop/
vi hdfs-site.xml


<!--不加入集群的节点列表--> 
<property>
<name>dfs.hosts.exclude</name>
<value>/usr/hadoop/hadoop-2.7.3/etc/hadoop/excludes</value>
</property>

2.创建excludes文件,加入slave2

touch excludes 

vi /usr/hadoop/hadoop-2.7.3/etc/hadoop/excludes
slave2

3.关闭节点进程  

在slave2上

sbin/hadoop-daemon.sh stop datanode
sbin/yarn-daemon.sh stop nodemanage

4.查看状态   

在master上

hdfs dfsadmin -refreshNodes	
hdfs dfsadmin -report

效果图:

 也可以通过web端进行查看:

 图中slave2的状态显示Decommission in Progress,表示slave2退出了集群

三、HBASE动态增删---slave3

HBASE的动态增删要比HDFS的简单一些。当然,要先保证其他节点的HBASE是开启的。

1.安装hbase    在slave3上

把其他节点上的hbase发送到slave3节点上

scp -r /usr/hbase root@slave3:/usr/

2. 修改regionserver文件(所有节点)

#在hbase的conf路径下
vi regionserver
   slave1
   slave2
   slave3

3.开启节点    (在slave3上)

#在bin目录下
   ./hbase-daemon.sh start regionserver
 之后可以进入hbase shell 通过status 查看状态
在新的节点上进入hbase shell
然后输入balance_switch true
过一会,你就会发现regions 已经负载均衡了。

同理要删除slave3节点则需要在slave3上运行

#bin目录下
./hbase-daemon.sh stop regionserver
或者
graceful_stop.sh regionser(主机名)
之后可以进入hbase shell 通过status 查看状态

当然,也可以通过hbase web来进行查看状态,在这里就不再详细展示了。

至此,HDFS与HBASE的动态增删节点就讲完了,希望能对大家有所帮助。感谢大家的支持。

以上是关于HDFS与HBASE的动态节点的扩容(增删)小白级的主要内容,如果未能解决你的问题,请参考以下文章

hadoop/spark/hbase集群 动态缩容/扩容

Hbase/HDFS存储扩容实践

hdfs以及hbase动态增加和删除节点

Hadoop---静动态增删节点

hadoop+Spark+hbase集群动态增加节点

HBase实验