关于hadoop多次format之后,会出现的dataNode消失问题
Posted howielu
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了关于hadoop多次format之后,会出现的dataNode消失问题相关的知识,希望对你有一定的参考价值。
如标题,最近我由于想初始化以下hadoop集群,之后却发现启动集群后所有的DataNode都消失了。
问题查找:
由于时所有的DataNode都出了问题,于是我翻找了以下DataNode的日志(默认在安装下的logs文件里):
2019-09-21 14:51:16,642 WARN org.apache.hadoop.hdfs.server.common.Storage: Failed to add storage directory [DISK]file:/home/howie/hadoop/dfs/data/ java.io.IOException: Incompatible clusterIDs in /home/howie/hadoop/dfs/data: namenode clusterID = CID-952bba13-0ef1-4383-9985-38c30ecbd500;
datanode clusterID = CID-5d8ae51b-e670-449c-90bb-f676aabe3fef
看出来可能是因为namenode的clusterID与datanode的clusterID不一样而造成的错误,但我并没有看懂,上网查了一下,发现只需要将所有datanode的hdfs的data的目录下的current删除即可。
解决:
于是我决定尝试一下:
rm -rf /home/howie/hadoop/dfs/data/current
#在所有的DataNode下执行
然后该出来的都出来了
以上是关于关于hadoop多次format之后,会出现的dataNode消失问题的主要内容,如果未能解决你的问题,请参考以下文章
hadoop 多次格式化format namenode 导致节点不能启动解决
关于hadoop单机配置问题执行hadoop namenode -format并start-all.sh后用jps查看并没有启动成功