在linux上如何配置spark环境,在linux上安装scala和spark老是失败

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了在linux上如何配置spark环境,在linux上安装scala和spark老是失败相关的知识,希望对你有一定的参考价值。

方法/步骤

首先你的机器安装了jdk,我的新机器,所以早上刚在centos上折腾了jdk,没有的也可以去参考下
下载安装包
scala-2.11.4.tgz
spark-1.2.0-bin-hadoop2.4.tgz
后面的包忘了之前哪找的了,需要的可以私我。将包传到服务器,解压
tar zxvf scala-2.11.4.tgz
tar zxvf spark-1.2.0-bin-hadoop2.4.tgz

配置环境变量
vim /etc/profile
加上以下对应内容:
export JAVA_HOME=/home/yy/jdk1.8
export SCALA_HOME=/home/yy/scala
export SPARK_HOME=/home/yy/spark-1.2.0-bin-hadoop2.4
export PATH=$PATH:$JAVA_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin
执行source /etc/profile使配置生效

修改spark配置
进入spark-1.2.0-bin-hadoop2.4/conf
复制模板文件:
cp spark-env.sh.template spark-env.sh
cp slaves.template slaves

编辑spark-env.sh
添加上你的对应信息:
export JAVA_HOME=/home/yy/jdk1.8
export SCALA_HOME=/home/yy/scala
export SPARK_MASTER_IP=172.20.0.204
export SPARK_WORKER_MEMORY=2g
export HADOOP_CONF_DIR=/home/yy/spark-1.2.0-bin-hadoop2.4/conf

编辑slaves
添加上你的对应信息,所有的集群的机器:
172.20.0.204
172.20.0.205

到此为止,前面所有的安装配置动作,在你的另一个机器上(所有的slave机器)同样的做一遍,即我这里的205机器

进入spark-1.2.0-bin-hadoop2.4/sbin/目录
执行:./start-all.sh
如果没有设置ssh免密码登陆,会要求输入密码
这时候jps查看多了个master和worker

浏览器查看集群信息
master地址+8080端口

启动Running Applications
在bin目录下执行:
MASTER=spark://172.20.0.204:7077 ./spark-shell
这时候就可以看到运行的app啦

同时可以查看jobs内容

slave机器上也运行app,这时候就可以看到运行的applications有两个啦。

好了,环境就算先搭起来啦,后面就是去调用吧。

http://jingyan.baidu.com/article/7e440953308f122fc0e2ef81.html追问

我按这个步骤做过,可是到中间有一条输入他提示没有这个文件或目录,可是我的都是在的啊

参考技术A 你说呢...

以上是关于在linux上如何配置spark环境,在linux上安装scala和spark老是失败的主要内容,如果未能解决你的问题,请参考以下文章

spark可以在windows下运行吗

如何在windows安装部署spark 求大神们的告知

Spark寒假自学第二天

Linux下hadoop和spark的基础环境配置准备

gcc环境配置Linux/UnixWindowsMac上如何配置C++环境?

如何在Linux上安装与配置Hadoop