Hadoop学习笔记-010-CentOS_6.5_64_HA高可用-Hadoop2.6+Zookeeper3.4.5安装Hbase1.0.0
Posted 走钢丝的老鼠
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop学习笔记-010-CentOS_6.5_64_HA高可用-Hadoop2.6+Zookeeper3.4.5安装Hbase1.0.0相关的知识,希望对你有一定的参考价值。
参考:
http://www.aboutyun.com/blog-9721-986.html
http://www.cnblogs.com/jun1019/p/6260492.html
虚拟机中共五个centos系统,每个系统有两个用户root和hadoop:cdh1,cdh2,cdh3,cdh4,cdh5
集群规划
安装hbase(cdh1机器)
第一步,解压已下载好的hbase安装包
#tar -zxvf hbase-1.0.0-cdh5.4.4.tar.gz
解压后删除hbase安装包,节省磁盘空间
#rm -rf hbase-1.0.0-cdh5.4.4.tar.gz
第二步,root用户配置环境变量
#vi /etc/profile
添加以下配置
HBASE_HOME=/home/hadoop/app/hbase-1.0.0-cdh5.4.4 export PATH=$PATH:$HBASE_HOME/bin
使环境变量及时生效
#source /etc/profile
第三步,配置hbase-env.sh
hadoop用户登录
#su hadoop
进入$HBASE_HOME/conf目录,配置 hbase-env.sh文件
#vi hbase-env.sh
添加以下两个配置:
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79 export HBASE_MANAGES_ZK=false
第四步,配置hbase-site.xml文件
进入$HBASE_HOME/conf目录,配置hbase-site.xml文件
添加以下配置:
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- /** * * Licensed to the Apache Software Foundation (ASF) under one * or more contributor license agreements. See the NOTICE file * distributed with this work for additional information * regarding copyright ownership. The ASF licenses this file * to you under the Apache License, Version 2.0 (the * "License"); you may not use this file except in compliance * with the License. You may obtain a copy of the License at * * http://www.apache.org/licenses/LICENSE-2.0 * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. */ --> <configuration> <property> <name>hbase.rootdir</name> <value>hdfs://cluster1/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>cdh3:2181,cdh4:2181,cdh5:2181</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> </configuration>
其中,hbase-site.xml文件中的hbase.rootdir和hadoop的配置文件core-site.xml中fs.defaultFS的值一致,我的配置是hdfs://cluster1;
hbase-site.xml文件中的hbase.zookeeper.quorum和hadoop的配置文件core-site.xml中ha.zookeeper.quorum的值一致,我的配置是cdh3:2181,cdh4:2181,cdh5:2181;
core-site.xml配置如下:
hbase-site.xml文件的配置如下
第五步,配置regionservers
添加以下配置(从机):
cdh3
cdh4
cdh5
第六步,拷贝hadoop的hdfs-site.xml和core-site.xml 放到$ HBASE_HOME/conf下
# cp ~/app/hadoop-2.6.0-cdh5.4.5/etc/hadoop/hdfs-site.xml ~/app/hbase-1.0.0-cdh5.4.4/conf/ # cp ~/app/hadoop-2.6.0-cdh5.4.5/etc/hadoop/core-site.xml ~/app/hbase-1.0.0-cdh5.4.4/conf/
第七步,拷贝hbase安装文件到其他节点(cdh2,cdh3,cdh4,cdh5)
在cdh1的~/tools目录下执行deploy.sh批处理命令
# ./deploy.sh ~/app/hbase-1.0.0-cdh5.4.4/ ~/app/ all
验证其他节点是否拷贝成功,如cdh2
第八步,其他节点的root用户配置环境变量(可以用批处理脚本,也可以每个节点手动配置)
#vi /etc/profile
添加以下配置
HBASE_HOME=/home/hadoop/app/hbase-1.0.0-cdh5.4.4 export PATH=$PATH:$HBASE_HOME/bin
其他节点配置如下:
使环境变量及时生效
#source /etc/profile
第九步,启动hadoop 启动zookeeper,进入cdh3节点的~/tools目录 #cd ~/tools/ #./runRemoteCmd.sh "~/app/zookeeper-3.4.5-cdh5.4.5/bin/zkServer.sh start" zookeeper 启动HDFS,进入cdh1节点的~/app/hadoop-2.6.0-cdh5.4.5/sbin目录,执行./start-dfs.sh # cd ~/app/hadoop-2.6.0-cdh5.4.5/sbin #./start-dfs.sh 启动YARN,进入cdh1节点的~/app/hadoop-2.6.0-cdh5.4.5/sbin目录,执行./start-yarn.sh # cd ~/app/hadoop-2.6.0-cdh5.4.5/sbin #./start-yarn.sh 启动resourcemanager,进入cdh2节点的~/app/hadoop-2.6.0-cdh5.4.5/sbin目录 # cd ~/app/hadoop-2.6.0-cdh5.4.5/sbin # ./yarn-daemon.sh start resourcemanager 查看各节点进程,进入cdh1的~/tools目录下 #cd ~/tools/ #./runRemoteCmd.sh "jps" all ****************************关闭hadoop集群************************ 关闭cdh1的resourcemanager,进入cdh1节点的~/app/hadoop-2.6.0-cdh5.4.5/sbin目录,执行./yarn-daemon.sh stop resourcemanager #cd ~/app/hadoop-2.6.0-cdh5.4.5/sbin #./yarn-daemon.sh stop resourcemanager 关闭yarn(也会关闭cdh2的resourcemanager),进入cdh2节点的~/app/hadoop-2.6.0-cdh5.4.5/sbin目录,执行./stop-yarn.sh #cd ~/app/hadoop-2.6.0-cdh5.4.5/sbin # ./stop-yarn.sh 关闭HDFS,进入cdh1节点的~/app/hadoop-2.6.0-cdh5.4.5/sbin目录,执行./stop-dfs.sh # cd ~/app/hadoop-2.6.0-cdh5.4.5/sbin #./stop-dfs.sh 关闭zookeeper,进入cdh3节点的~/tools目录 #cd ~/tools/ #./runRemoteCmd.sh "~/app/zookeeper-3.4.5-cdh5.4.5/bin/zkServer.sh stop" zookeeper 查看进程,进入cdh1的~/tools目录下 #cd ~/tools/ #./runRemoteCmd.sh "jps" all
第十步,启动hbase
# start-hbase.sh
启动完成后,cdh1节点会多出HMaster进程,cdh3,cdh4,cdh5三个节点会多出HRegionServer进程(regionservers文件中配置的cdh3,cdh4,cdh5)
第十一步,访问cdh1的hbase管理页面
第十二步,启动另外一个Hmaster节点
在cdh2节点启动Hmaster
# hbase-daemon.sh start master
访问cdh2的hbase管理页面
http://cdh2:60010/
可以看出cdh2节点是hbase的从机。
第十三步,停掉cdh1节点的Hmaster
# hbase-daemon.sh stop master
第十四步,再次访问cdh2的hbase管理页面
http://cdh2:60010/
可以看出,cdh2已经成功切换为Hmaster主节点。
第十五步,验证hbase shell
#hbase shell
至此,Hbase安装完成。
**************************启动和停止hbase命令*********************** 启动HBase集群: bin/start-hbase.sh 单独启动一个HMaster进程: bin/hbase-daemon.sh start master 单独停止一个HMaster进程: bin/hbase-daemon.sh stop master 单独启动一个HRegionServer进程: bin/hbase-daemon.sh start regionserver 单独停止一个HRegionServer进程: bin/hbase-daemon.sh stop regionserver
完成!
以上是关于Hadoop学习笔记-010-CentOS_6.5_64_HA高可用-Hadoop2.6+Zookeeper3.4.5安装Hbase1.0.0的主要内容,如果未能解决你的问题,请参考以下文章
Hadoop学习笔记-009-CentOS_6.5_64_HA高可用-Hadoop2.6+Zookeeper3.4.5安装Hive1.1.0
Hadoop学习笔记-011-CentOS_6.5_64_HA高可用-Zookeeper3.4.5安装Kafka+消息监控KafkaOffsetMonitor