windows下安装hadoop总是出错 JAVA_HOME is not set.

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了windows下安装hadoop总是出错 JAVA_HOME is not set.相关的知识,希望对你有一定的参考价值。

上面hadoop算是成功启动了吗?下面那个JAVA_HOME is not set又该如何让解决呢?求人来帮帮我这只菜鸟啊~~~~

成不成功看看你的启动日志有没有报错 其次JAVA_HOME是在环境变量设置的追问

我的hadoop-env.sh里有写export JAVA_HOME=/usr/lib/jdk1.7.0_45了,然后环境变量里JAVA_HOME的路径也直线了jdk的bin目录和jre,为什么还是说JAVA_HOME is not set?

追答

/usr/lib/jdk1.7.0_45 你的JDK是安装在windows下的 这个路径明显就不对呀

参考技术A 设置一个JAVA_HOME环境变量,如 export JAVA_HOME=/path
export PATH=$PATH:$JAVA_HOME/bin追问

我的hadoop-env.sh里有写export JAVA_HOME=/usr/lib/jdk1.7.0_45了,然后环境变量里JAVA_HOME的路径也直线了jdk的bin目录和jre,为什么还是说JAVA_HOME is not set?

追答

系统环境变量,就是在 ~/.bash_profile 这个隐藏文件中设置,之后再 source ~/.bash_profile 就行了

追问

可以私信教下我吗?

追答

可以的,QQ:371720876

参考技术B 你在hadoop里面配置java环境变量没有?追问

我的hadoop-env.sh里有写export JAVA_HOME=/usr/lib/jdk1.7.0_45了,然后环境变量里JAVA_HOME的路径也直线了jdk的bin目录和jre,为什么还是说JAVA_HOME is not set?

追答

我是在linux下面配置的,要简单得多,你在命令行里面试试能不能查到java版本,具体命令你百度下,然后最好装1.6的java环境,好像不支持1.7的

Windows下搭建Spark+Hadoop开发环境

只需要确保您的电脑已装好Java环境,那么就可以开始了。

 

一. 准备工作

1. 下载Hadoop2.7.1版本(写Spark和Hadoop主要是用到了Yarn,因此Hadoop必须安装)

下载地址:http://apache.fayea.com/hadoop/common/hadoop-2.7.1/

下载其中的hadoop-2.7.1.tar.gz并解压到一个固定目录作为Hadoop安装目录。

2. 下载支持插件

下载地址:https://github.com/ShixiangWan/winutils,其中有很多个Hadoop版本,这里我们以其中的Hadoop2.7.1稳定版为例。

下载后将Hadoop2.7.1的bin中的文件覆盖拷贝至上述的安装目录的bin下。

3. 覆盖hadoop.dll

将插件bin目录下的hadoop.dll复制到C:\Window\System32下。

 

二. 环境变量配置

1. 增加环境变量HADOOP_HOME,指向Hadoop安装根目录;

2. 在Path变量中添加%HADOOP_HOME%\bin;

3. 重启Eclipse或Intellij,直接运行Spark或Hadoop的Maven项目即可。

 

参考资料:

http://blog.csdn.net/shenshendeai/article/details/57962167

 

以上是关于windows下安装hadoop总是出错 JAVA_HOME is not set.的主要内容,如果未能解决你的问题,请参考以下文章

redis在windows下总是报错,就是下面的错误,这是哪里出错了

在运行JAVA程序时出错,大家帮看一下是怎么回事,最好懂hadoop编程~~

在Windows下MyEclipse运行JAVA程序连接HBASE读取数据出错

在Windows 10 环境下安装 Hadoop-3.1.2

Windows 下Hadoop的环境变量配置

Windows 下Hadoop的环境变量配置