hadoop错误java.io.IOException Failed to replace a bad datanode on the existing pipeline due to no more

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop错误java.io.IOException Failed to replace a bad datanode on the existing pipeline due to no more相关的知识,希望对你有一定的参考价值。

错误:

    java.io.IOException: Failed to replace a bad datanode on the existing pipeline due to no more good datanodes being available to try

原因:

    无法写入;我的环境中有3个datanode,备份数量设置的是3。在写操作时,它会在pipeline中写3个机器。默认replace-datanode-on-failure.policy是DEFAULT,如果系统中的datanode大于等于3,它会找另外一个datanode来拷贝。目前机器只有3台,因此只要一台datanode出问题,就一直无法写入成功。

解决办法:

    修改hdfs-site.xml文件,添加或者修改如下两项:

    <property>

        <name>dfs.client.block.write.replace-datanode-on-failure.enable</name>         <value>true</value>

    </property>

   

    <property>

    <name>dfs.client.block.write.replace-datanode-on-failure.policy</name>

        <value>NEVER</value>

    </property>

    对于dfs.client.block.write.replace-datanode-on-failure.enable,客户端在写失败的时候,是否使用更换策略,默认是true没有问题

    对于,dfs.client.block.write.replace-datanode-on-failure.policy,default在3个或以上备份的时候,是会尝试更换结点尝试写入datanode。而在两个备份的时候,不更换datanode,直接开始写。对于3个datanode的集群,只要一个节点没响应写入就会出问题,所以可以关掉。

 

如果,您认为阅读这篇博客让您有些收获,不妨点击一下右下角的【推荐】。
如果,您希望更容易地发现我的新博客,不妨点击一下左下角的【关注我】。
如果,您对我的博客所讲述的内容有兴趣,请继续关注我的后续博客,我是【刘超★ljc】。

本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

以上是关于hadoop错误java.io.IOException Failed to replace a bad datanode on the existing pipeline due to no more的主要内容,如果未能解决你的问题,请参考以下文章

eclipse中启动Genymotion模拟器的错误

Gradle Plugin v0.13.1 后重复的 Zip 条目

Linux的hadoop运行hadoop的时候出现错误:找不到或者无法加载主类 org.apache.hadoop.fs.FsShell

docker中安装hadoop过程及错误解决

Hadoop:错误 BlockSender.sendChunks() 异常

Hadoop 大数据错误收集