Hadoop无法正确启动SecondaryNameNode
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop无法正确启动SecondaryNameNode相关的知识,希望对你有一定的参考价值。
参考技术A 搭建Hadoop集群时,在安装并修改配置文件后,使用命令行start-dfs.sh启动Hadoop的HDFS文件系统。然后在各节点输入jps查看集群的各节点进程,发现SecondaryNameNode没有正常启动。
查看操作日志,可发现错误报告如下:
后查看hadoop文件夹下的data和name文件夹里面的current/version,发现clusterID不一致.
错误原因:
多次错误初始化NameNode,导致namenode和datanode的namespaceID和clusterID不一致。
解决方法:
1、删除Hadoop文件夹.../tmp/dfs 里面的data和name文件夹
2、初始化NameNode:hdfs namenode -format
3、启动HDFS:start-dfs.sh
此时再输入jps,可看到所有进程都正常启动
总结:
有异常,可通过查看操作日志查找错误原因
初始化namenode之前,应先删除data和name文件夹。
无法启动Hadoop datanode。返回值:1
我创建了2个VM(主服务器和从服务器)我安装了hadoop组件(namenode,hdfs ..)它在主服务器上正常工作但在从服务器上我在启动datanode时遇到此错误:
无法启动Hadoop datanode。返回值:1
答案
我已经解决了这个问题,在/ etc / profile中没有正确设置JAVA_HOME。我更改了行:export JAVA_HOME = / usr / java / jdk1.7.0_67-cloudera by:export JAVA_HOME = / usr / local / java now我可以启动datanode和tasktracker。谢谢。
以上是关于Hadoop无法正确启动SecondaryNameNode的主要内容,如果未能解决你的问题,请参考以下文章