spark 的HA模式

Posted 正义飞

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark 的HA模式相关的知识,希望对你有一定的参考价值。

hadoop,spark,kafka交流群:459898801

1,ssh无密钥登录

1,生产一对公钥和密钥

$ ssh-keygen -t rsa

2,拷贝公钥到各个机器上

$ ssh-copy-id hadoop.learn.com

3,ssh连接

$ ssh spark.learn.com
$ ssh hadoop.learn.com
$ ssh tachyon.learn.com

2,配置zookeeper

1,在spark-env.sh中添加如下配置

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER "  
export SPARK_DAEMON_JAVA_OPTS="$SPARK_DAEMON_JAVA_OPTS -Dspark.deploy.zookeeper.url=spark.learn.com:2181,hadoop.learn.com:2181,tachyon.learn.com:2181"  

2,各个参数的意义

参数默认值含义
spark.deploy.recoveryModeNONE恢复模式(Master重新启动的模式),有三种:1, ZooKeeper, 2, FileSystem, 3 NONE
spark.deploy.zookeeper.urlZooKeeper的Server地址
spark.deploy.zookeeper.dir/sparkZooKeeper 保存集群元数据信息的文件目录,包括Worker,Driver和Application。

Master可以在任何时候添加或移除。如果发生故障切换,新的Master将联系所有以前注册的Application和Worker告知Master的改变。
注意:不能将Master定义在conf/spark-env.sh里了,而是直接在Application中定义。涉及的参数是 export SPARK_MASTER_IP,这项不配置或者为空。否则,无法启动多个master。

1,启动spark的HA

1.zookeeper集群已经启动。

bin/zkServer.sh start
bin/zkServer.sh status

2.关闭集群后,重新启动spark集群:

sbin/stop-all.sh 
sbin/start-all.sh 

3.在另一个节点上,启动新的master:

sbin/start-master.sh 

4.运行applition

MASTER=spark://spark.learn.com:7077,tachyon.learn.com:7077 bin/spark-shell




5,kill 掉一个master

kill -9 masterID



以上是关于spark 的HA模式的主要内容,如果未能解决你的问题,请参考以下文章

spark 的HA模式

spark 的HA模式

HA-Spark集群环境搭建(Yarn模式)

HA-Spark集群环境搭建(Standalone模式)

HA-Spark集群环境搭建(Yarn模式)-视频教程

大数据问题排查系列 - SPARK STANDALONE HA 模式的一个缺陷点与应对方案