hadoop 启动ha错误 nice: /bin/hdfs: No such file or directory
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop 启动ha错误 nice: /bin/hdfs: No such file or directory相关的知识,希望对你有一定的参考价值。
参考技术A 在没弄ha时,可以直接启动,改成ha后启动就出了这个错,解决方法是修改~/.bashrc ,在里面添加export HADOOP_HOME=hadoop安装目录就可以了
参考:https://blog.csdn.net/tiankong_12345/article/details/80551930
Hadoop HA自动故障转移&频繁启动问题解决
背景
之前博客中有讲怎么配置hadoop的HA,在工作中,我因要进行数据治理组件的探究,所以需要部署一个测试集群来测试一下数据治理相关组件的集成,可能是因为测试集群比生产环境的配置要低,所以遇到了之前没有遇到的问题,比如HA配置后,NN一直频繁切换
自动故障转移配置
vim $HADOOP_HOME/etc/hadoop/hdfs-site.xml
<!-- 配置自动故障转移 -->
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
<property>
<name>ha.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>
频繁切换问题解决
vim $HADOOP_HOME/etc/hadoop/core-site.xml
<!-- 调整ZKFC自动检测时长,防止频繁切换nn -->
<property>
<name>ha.health-monitor.rpc-timeout.ms</name>
<value>120000</value>
</property>
频繁切换的原因
可能是集群配置较低,使用默认配置时,ZKFC的健康检查超时时长不足以支撑NN的正常启动,此时NN被ZKFC认为没有正常启动,因此会采用自动故障转移来启动另外一台NN,从而引起自动切换active NN
总结
开发中所有东西都不是一成不变,需要我们仔细探究原因
以上是关于hadoop 启动ha错误 nice: /bin/hdfs: No such file or directory的主要内容,如果未能解决你的问题,请参考以下文章
hadoop 集群已经启动但是web上显示datanode节点没有
Spark启动时报错localhost: failed to launch: nice -n 0 /home/chan/spark/spark-2.4.3-bin-hadoop2.7/bin/spar