spark--环境搭建--6.Spark1.3.0集群搭建

Posted _殇j

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark--环境搭建--6.Spark1.3.0集群搭建相关的知识,希望对你有一定的参考价值。

1. spark安装

$ cd /usr/local

$ tar -zxvf spark-1.3.0-bin-hadoop2.4.tgz

$ mv spark-1.3.0-bin-hadoop2.4 spark

$ vi ~/.bashrc

export SPARK_HOME=/usr/local/spark/
export PATH=$PATH:$SPARK_HOME/bin
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

$ source ~/.bashrc

$ cd spark/conf/

$ mv spark-env.sh.template spark-env.sh

$ vi spark-env.sh

export JAVA_HOME=/usr/java/latest/
export SCALA_HOME=/usr/local/scala/
# spark集群的master节点ip
export SPARK_MASTER_IP=192.168.2.100
# 指定worker节点能够最大分配给Excutors的内存大小
export SPARK_WORKER_MEMORY=1g
# hadoop集群的配置文件目录
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop

$ mv slaves.template slaves

$ vi slaves

localhost 改为 
spark2
spark3

$ cd /usr/local

$ scp -r spark [email protected]:/usr/local/

$ scp -r spark [email protected]:/usr/local/

$ scp ~/.bashrc [email protected]:~/.bashrc

$ scp ~/.bashrc [email protected]:~/.bashrc

# 分别在2和3执行

$ source ~/.bashrc

2. 启动spark

$ cd spark/sbin/

$ ./start-all.sh

$ jps

# 浏览器打开  http://spark1:8080

$ cd ../../

$ spark-shell

> exit

以上是关于spark--环境搭建--6.Spark1.3.0集群搭建的主要内容,如果未能解决你的问题,请参考以下文章

Spark之环境搭建

(超详细) Spark环境搭建(Local模式 StandAlone模式Spark On Yarn模式)

Spark单机伪分布式环境搭建完全分布式环境搭建Spark-on-yarn模式搭建

华为云Hadoop与Spark集群环境搭建

编程语言-scala:Spark环境搭建

Spark编程环境搭建及WordCount实例