错误:无法在 Hadoop 上找到或加载主类 org.apache.hadoop.hdfs.tools.GetConf
Posted
技术标签:
【中文标题】错误:无法在 Hadoop 上找到或加载主类 org.apache.hadoop.hdfs.tools.GetConf【英文标题】:Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf on Hadoop 【发布时间】:2015-02-12 05:17:51 【问题描述】:Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf
在 [] 上启动名称节点 localhost:启动namenode,登录到/usr/local/hadoop/hadoop-2.6.0/logs/hadoop-ingreens-namenode-ingreens-desktop.out localhost:启动datanode,登录到/usr/local/hadoop/hadoop-2.6.0/logs/hadoop-ingreens-datanode-ingreens-desktop.out 错误:无法找到或加载主类 org.apache.hadoop.hdfs.tools.GetConf
和 jps 展示
13033 日元 12873 数据节点
使用 Hadoop 2.6.0
我该怎么办。
【问题讨论】:
你能发布你的配置文件吗? 【参考方案1】:我遇到了同样的问题!我解决了不断变化的 .bashrc 文件。将这些行添加到 $HOME/.bashrc 文件的末尾,更改 hadoop 安装路径:
<code>
#Set hadoop-related enviroment variables
export HADOOP_PREFIX=/usr/local/hadoop-2.7.1
export HADOOP_HOME=/usr/local/hadoop-2.7.1
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONFDIR=$HADOOP_HOME/etc/hadoop
# Native path
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_PREFIX/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib/native"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
# Add Hadoop bin/ directory to PATH
export PATH=$PATH:$HADOOP_HOME/
export PATH=$PATH:$HADOOP_HOME/bin
</code>
我希望这对某人有所帮助
【讨论】:
以上是关于错误:无法在 Hadoop 上找到或加载主类 org.apache.hadoop.hdfs.tools.GetConf的主要内容,如果未能解决你的问题,请参考以下文章
Spark 安装 - 错误:无法找到或加载主类 org.apache.spark.launcher.Main
Linux的hadoop运行hadoop的时候出现错误:找不到或者无法加载主类 org.apache.hadoop.fs.FsShell
Mesos 上的 Hadoop 因“无法找到或加载主类 org.apache.hadoop.mapred.MesosExecutor”而失败
为啥这个 sqoop 命令会抛出异常?无法找到或加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster