hadoop错误DataXceiver error processing WRITE_BLOCK operation

Posted 刘超

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop错误DataXceiver error processing WRITE_BLOCK operation相关的知识,希望对你有一定的参考价值。

错误:

    DataXceiver error processing WRITE_BLOCK operation

原因:

    文件操作超租期,实际上就是data stream操作过程中文件被删掉了。

解决办法:

    修改hdfs-site.xml (针对2.x版本,1.x版本属性名应该是:dfs.datanode.max.xcievers):

    <property>

        <name>dfs.datanode.max.transfer.threads</name>           

        <value>8192</value>

    </property>

    拷贝到各datanode节点并重启datanode即可

 

如果,您认为阅读这篇博客让您有些收获,不妨点击一下右下角的【推荐】。
如果,您希望更容易地发现我的新博客,不妨点击一下左下角的【关注我】。
如果,您对我的博客所讲述的内容有兴趣,请继续关注我的后续博客,我是【刘超★ljc】。

本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

以上是关于hadoop错误DataXceiver error processing WRITE_BLOCK operation的主要内容,如果未能解决你的问题,请参考以下文章

hadoop错误DataXceiver error processing WRITE_BLOCK operation

DataNode数据处理中心DataXceiver

ERROR:org.apache.hadoop.hbase.PleaseHoldException: Master is initializing错误

错误:org.apache.hadoop.hbase.MasterNotRunningException:重试 7 次

错误:无法在 Hadoop 上找到或加载主类 org.apache.hadoop.hdfs.tools.GetConf

HBase 报错 ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing