hadoop2.7.3+spark2.1.0环境搭建安装jdk
Posted 非淡泊无以明志,非宁静无以致远 - 长安快马
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop2.7.3+spark2.1.0环境搭建安装jdk相关的知识,希望对你有一定的参考价值。
一、文件准备
下载jdk-8u131-linux-x64.tar.gz
二、工具准备
2.1 Xshell
2.2 Xftp
三、操作步骤
3.1 解压文件:
$ tar zxvf jdk-8u131-linux-x64.tar.gz
解压后文件目录移动到/opt/modules/下
建立连接jdk1.8到该目录
3.3 使用Vi编辑器,设置环境变量
$ sudo vi /etc/profile
在文件最后,添加如下内容:
#Java Env export JAVA_HOME=/opt/modules/jdk1.8 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin
3.4 退出vi编辑器,使环境变量设置立即生效
$ source /etc/profile
3.5 查看JDK版本
$ java -version java version "1.8.0_121" Java(TM) SE Runtime Environment (build 1.8.0_121-b13) Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode)
以上是关于hadoop2.7.3+spark2.1.0环境搭建安装jdk的主要内容,如果未能解决你的问题,请参考以下文章
Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程
Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程