搭建Hbase和Spark环境

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了搭建Hbase和Spark环境相关的知识,希望对你有一定的参考价值。

前期准备:

  1.默认已经搭建好了hadoop环境(我的hadoop版本是2.5.0)

  2.这里我用的Hbase是0.98.6,spark是1.3.0

一、搭建Hbase

  1、上传Hbase安装包,将/opt/software下的hbase安装包解压到/opt/app目录下

  2、进入hbase目录下,修改配置文件

     1>修改hbase-env.sh文件

        将export  JAVA_HOME = 你的Java安装路径,我的路径是/opt/app/jdk1.7.0_79

        所以改完后是 export  JAVA_HOME=/opt/app/jdk1.7.0_79

     2>修改hbase-site.xml文件,改成以下内容

      技术分享

      说明:

        这里hadoop.spark.com是我的主机名,如果大家没有配置ip地址映射的话,这里就应该是你ip地址

        这里hbase.zookeeper.quorum的值是zookeeper所在的机器,我这里是伪分布式,所以还是我的主机名

    3>修改regionservers文件

       将localhost  替换成  你的主机名(已经配置ip地址映射)或者ip地址

     至此,Hbase环境搭建完成

二、搭建Spark

  1.首先安装scala

    1>上传scala安装包,将/opt/software/下的scala安装包解压到/opt/app/目录下

    2>配置scala环境变量

        切换到root用户下,编辑/etc/profile文件,在文件末尾加上环境路径

        技术分享

        

    3>重启/etc/profile文件后者重启系统

      source /etc/profile  或者 reboot

    4>检查scala安装

      scala -version

  2、安装Spark

    1>上传scala安装包,并将/opt/software目录下的scala安装包解压到/opt/app/目录下

    2>进入Spark目录下,修改配置文件

      • 将slaves.template文件重命名为slaves,并将里面的内容改成你的主机名或者你的ip地址
      • 将log4j.properties.template文件重命名为log4j.properties,里面的内容不做任何修改,这个文件是记录日志的
      • 将spark-env.template文件重命名为spark-env,修改成以下:

         技术分享

           技术分享

          注意:这里SPARK_HISTORY_OPTS=......,要一行写完,我这里是为了演示,所以分两行写

      • 将spark-default.conf.template文件重命名为spark-default.conf,修改完成后内容如下

          技术分享

      至此,spark环境搭建成功了

以上是关于搭建Hbase和Spark环境的主要内容,如果未能解决你的问题,请参考以下文章

大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 图文详解

大数据学习系列之六 ----- Hadoop+Spark环境搭建

大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集

Spark集群框架搭建VM15+CentOS7+Hadoop+Scala+Spark+Zookeeper+HBase+Hive

大数据学习环境搭建(CentOS6.9+Hadoop2.7.3+Hive1.2.1+Hbase1.3.1+Spark2.1.1)

大数据生态圈 —— 单节点伪分布式环境搭建