hadoop2.7.3+spark2.1.0环境搭建安装jdk

Posted 非淡泊无以明志,非宁静无以致远 - 长安快马

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop2.7.3+spark2.1.0环境搭建安装jdk相关的知识,希望对你有一定的参考价值。

一、文件准备

     下载jdk-8u131-linux-x64.tar.gz    

二、工具准备

    2.1 Xshell

    2.2 Xftp

三、操作步骤

   3.1 解压文件:

        $ tar zxvf jdk-8u131-linux-x64.tar.gz

        解压后文件目录移动到/opt/modules/下

        建立连接jdk1.8到该目录

   3.3 使用Vi编辑器,设置环境变量

        $ sudo vi /etc/profile

        在文件最后,添加如下内容:       

#Java Env
export JAVA_HOME=/opt/modules/jdk1.8
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

   3.4 退出vi编辑器,使环境变量设置立即生效

       $ source /etc/profile

   3.5 查看JDK版本

$ java -version
java version "1.8.0_121"
Java(TM) SE Runtime Environment (build 1.8.0_121-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode)

 

 
 

以上是关于hadoop2.7.3+spark2.1.0环境搭建安装jdk的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程

Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程

Hive源码系列hive2.1.1+hadoop2.7.3环境搭建

新手上路——hadoop2.7.3单机模式环境搭建

9ZooKeeper安装教程详解

Hadoop2.7.3+Hbase-1.2.6完全分布式安装部署