spark-2.2.1在centos7安装
Posted kuroniko
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark-2.2.1在centos7安装相关的知识,希望对你有一定的参考价值。
前言
在安装
Spark
之前,我们需要安装Scala
语言的支持。在此我选择的是scala-2.11.12
版本。jdk8也要保证已经安装好并且配置好环境变量
scala-2.11.12
下载
为了方便,我先在我的hserver1主机上先安装,在scala官网下载scala-2.11.12.tgz并且上传到/root
目录下,与我的Java
目录相一致。
下载之后解压
tar -zxvf scala-2.11.12.tgz
配置环境
在此需要打开/etc/profile
文件进行配置
vim /etc/profile
在文件的最后插入
export SCALA_HOME=/usr/scala-2.11.12
export PATH=$PATH:$SCALA_HOME/bin
插入了之后要使得命令生效,需要的是:
source /etc/profile
检测是否安装成功
scala -version
配置其他Slave
主机也安装scala
在此我用scp把scala-2.11.12.tgz传到另外两台hserver2和hserver3上完成另外两台机器的scala安装
Spark安装
把spark-2.2.1-bin-hadoop2.7.tgz上传到hserver1的root目录下并且tar -zxvf spark-2.2.1-bin-hadoop2.7.tgz 解压
修改/etc/profile
export SPARK_HOME=/opt/spark-2.2.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
然后执行source /etc/profile
然后进入/root/spark-2.2.1-bin-hadoop2.7/conf
cp slaves.template slaves
然后vim slaves加入两个从节点的host
hserver2
hserver3
然后执行cp spark-env.sh.template spark-env.sh 并且修改这个文件
加入
SPARK_MASTER_HOST=hserver1
SPARK_WORKER_MEMORY=360m
SPARK_WORKER_CORES=1
JAVA_HOME=/root/jdk1.8.0_131
然后用scp把配置好的spark目录传到hserver2和hserver3从节点上
scp -r spark-2.2.1-bin-hadoop2.7 root@hserver2:/root
scp -r spark-2.2.1-bin-hadoop2.7 root@hserver3:/root
然后把hserver2和hserver3的/etc/profile修改成和hserver1一样
接下来先启动hdfs
进入/opt/hadoop/hadoop-2.8.3/sbin执行./start-dfs.sh
接下来进入/opt/spark-2.2.1-bin-hadoop2.7/sbin目录执行./start-all.sh启动spark
可以在hserver1看到Master进程在hserver2和hserver3看到Worker进程
接下来访问hserver1:8080可以进入Spark的WebUI界面,可以看到2个Worker节点
还可以执行spark-shell
以上是关于spark-2.2.1在centos7安装的主要内容,如果未能解决你的问题,请参考以下文章
Carbondata 1.4.0+Spark 2.2.1 On Yarn集成安装
在 Ubuntu16.04 中搭建 Spark 单机开发环境 (JDK + Scala + Spark)
在Tomcat的安装目录下conf目录下的server.xml文件中增加一个xml代码片段,该代码片段中每个属性的含义与用途
Android 插件化VirtualApp 源码分析 ( 目前的 API 现状 | 安装应用源码分析 | 安装按钮执行的操作 | 返回到 HomeActivity 执行的操作 )(代码片段