hadoop两个namenode都是standby问题
Posted guoyu1
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop两个namenode都是standby问题相关的知识,希望对你有一定的参考价值。
1、修改配置文件后重启hdfs集群,出现了两个namenode都是standby的问题。
经过不断地排查,发现在自己进行关闭和重启namenode的组件的时候,没有通过pip文件正常关闭,只能挨个关闭,这个也不是重点。
经过修改pip文件的路径,解决了这个批量关闭启动的问题,原因是/tmpe目录系统会定期清理,导致进程号对不上了。
批量启动的时候发现zkfc一直启动不了,手动启动,还是没解决问题。
尝试重新格式化zookeeper上的namenode信息。关闭再启动hdfs集群,注意zkfc的启动状态,这样成功了。
2、hbase上的一个表获取hdfs上的数据块失败,主要也是由于自己新增了datanode,有两个没启动,手动启动一下,问题还是没解决。
执行hbase检查命令,还是那个表的region找不到。直接强制删除表,这样zookeeper上的meat信息都会删掉,再重新建表,问题解决。
以上是关于hadoop两个namenode都是standby问题的主要内容,如果未能解决你的问题,请参考以下文章
我搭建Hadoop集群时,两个namenode节点都是Standby;而且datanode启动不成功,VERSION也没有namespaceID
HADOOP HA 踩坑 - 所有 namenode 都是standby
为啥hadoop启动后两个namenode都处于standby状态