hadoop 启动ha错误 nice: /bin/hdfs: No such file or directory

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop 启动ha错误 nice: /bin/hdfs: No such file or directory相关的知识,希望对你有一定的参考价值。

参考技术A 在没弄ha时,可以直接启动,改成ha后启动就出了这个错,解决方法是修改~/.bashrc ,在里面添加export HADOOP_HOME=hadoop安装目录

就可以了

参考:https://blog.csdn.net/tiankong_12345/article/details/80551930

Hadoop HA自动故障转移&频繁启动问题解决

背景

之前博客中有讲怎么配置hadoop的HA,在工作中,我因要进行数据治理组件的探究,所以需要部署一个测试集群来测试一下数据治理相关组件的集成,可能是因为测试集群比生产环境的配置要低,所以遇到了之前没有遇到的问题,比如HA配置后,NN一直频繁切换

自动故障转移配置

vim $HADOOP_HOME/etc/hadoop/hdfs-site.xml
<!--  配置自动故障转移 -->
<property>
    <name>dfs.ha.automatic-failover.enabled</name>
    <value>true</value>
</property>
<property>
    <name>ha.zookeeper.quorum</name>
    <value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>

频繁切换问题解决

vim $HADOOP_HOME/etc/hadoop/core-site.xml
<!-- 调整ZKFC自动检测时长,防止频繁切换nn -->
<property>
    <name>ha.health-monitor.rpc-timeout.ms</name>
    <value>120000</value>
</property>

频繁切换的原因

可能是集群配置较低,使用默认配置时,ZKFC的健康检查超时时长不足以支撑NN的正常启动,此时NN被ZKFC认为没有正常启动,因此会采用自动故障转移来启动另外一台NN,从而引起自动切换active NN

总结

开发中所有东西都不是一成不变,需要我们仔细探究原因

以上是关于hadoop 启动ha错误 nice: /bin/hdfs: No such file or directory的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop HA——namenode无法启动问题解决

Hadoop HA——namenode无法启动问题解决

hadoop 集群已经启动但是web上显示datanode节点没有

Spark启动时报错localhost: failed to launch: nice -n 0 /home/chan/spark/spark-2.4.3-bin-hadoop2.7/bin/spar

Hadoop HA自动故障转移&频繁启动问题解决

Hadoop HA自动故障转移&频繁启动问题解决