Hadoop无法正确启动SecondaryNameNode

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop无法正确启动SecondaryNameNode相关的知识,希望对你有一定的参考价值。

参考技术A 搭建Hadoop集群时,在安装并修改配置文件后,使用命令行start-dfs.sh启动Hadoop的HDFS文件系统。
然后在各节点输入jps查看集群的各节点进程,发现SecondaryNameNode没有正常启动。

查看操作日志,可发现错误报告如下:

后查看hadoop文件夹下的data和name文件夹里面的current/version,发现clusterID不一致.

错误原因:

多次错误初始化NameNode,导致namenode和datanode的namespaceID和clusterID不一致。

解决方法:

1、删除Hadoop文件夹.../tmp/dfs 里面的data和name文件夹

2、初始化NameNode:hdfs namenode -format

3、启动HDFS:start-dfs.sh

此时再输入jps,可看到所有进程都正常启动

总结:

有异常,可通过查看操作日志查找错误原因

初始化namenode之前,应先删除data和name文件夹。

无法启动Hadoop datanode。返回值:1

我创建了2个VM(主服务器和从服务器)我安装了hadoop组件(namenode,hdfs ..)它在主服务器上正常工作但在从服务器上我在启动datanode时遇到此错误:

无法启动Hadoop datanode。返回值:1

答案

我已经解决了这个问题,在/ etc / profile中没有正确设置JAVA_HOME。我更改了行:export JAVA_HOME = / usr / java / jdk1.7.0_67-cloudera by:export JAVA_HOME = / usr / local / java now我可以启动datanode和tasktracker。谢谢。

以上是关于Hadoop无法正确启动SecondaryNameNode的主要内容,如果未能解决你的问题,请参考以下文章

hadoop(一HDFS)

Hadoop常见问题

无法启动Hadoop datanode。返回值:1

1.浅析Hadoop之HDFS

无法访问hadoop yarn8088端口的解决方法

hadoop无法启动