使用root配置的hadoop启动时报错
Posted mr-nie
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用root配置的hadoop启动时报错相关的知识,希望对你有一定的参考价值。
一、报错信息:
Starting namenodes on [master]
ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.
Starting datanodes
ERROR: but there is no HDFS_DATANODE_USER defined. Aborting operation.
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
如下图:
start-yarn.sh,stop-yarn.sh顶部也添加以下参数
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
如下图:
三、添加完启动遇到如下警告:
WARNING: HADOOP_SECURE_DN_USER has been replaced by HDFS_DATANODE_SECURE_USER.
需要将第二句:HADOOP_SECURE_DN_USER=hdfs 改为 HDFS_DATANODE_SECURE_USER=hdfs
以上是关于使用root配置的hadoop启动时报错的主要内容,如果未能解决你的问题,请参考以下文章
配置分布式hadoop时报错:mkdir:无法创建目录"/opt/apps/hadoop/logs": 权限不够
Hadoop3.x - 本地安装 + 完全分布式安装 + 集群配置 + xsync分发脚本 (解决root用户启动Hadoop集群的报错问题)
hadoop启动时报错,java: No such file or directory和localhost: Error: JAVA_HOME is not set.
Spark启动时报错localhost: failed to launch: nice -n 0 /home/chan/spark/spark-2.4.3-bin-hadoop2.7/bin/spar