Spark的HA部署

Posted julyme

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark的HA部署相关的知识,希望对你有一定的参考价值。

一、安装JDK、Scala

二、安装zookeeper

三、安装Hadoop

四、安装Spark

  1、修改spark/conf/spark-env.sh 

    export JAVA_HOME=/usr/java/jdk1.8.0_65
    export SCALA_HOME=/usr/scala-2.11.8
    export HADOOP_HOME=/usr/hadoop-2.7.2
    export HADOOP_CONF_DIR=/usr/hadoop-2.7.2/etc/hadoop
    export SPARK_MASTER_IP=node1
    export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=node1:2181,node2:2181,node3:2181 -Dspark.deploy.zookeeper.dir=/usr/zookeeper-3.4.6"
    export SPARK_WORKER_MEMORY=1g
    export SPARK_EXECUTOR_MEMORY=1g
    export SPARK_DRIVER_MEMORY=1G
    export SPARK_WORKER_CORES=2

  2、修改 spark/conf/slaves  

    node2
    node3
    node4

  3、修改 spark/conf/spark-defaults.conf

    spark.executor.extraJavaOptions -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"
    spark.eventLog.enabled true
    spark.eventLog.dir hdfs://mycluster/historyServerforSpark
    spark.yarn.historyServer.address node1:18080
    spark.history.fs.logDirectory hdfs://mycluster/historyServerforSpark

  4、需要到hdfs 系统上创建/historyServerforSpark目录

  5、复制到各个机器上

  6、启动spark集群和启动history-serve

  ./start-all.sh

   ./start-history-server.sh

 

以上是关于Spark的HA部署的主要内容,如果未能解决你的问题,请参考以下文章

Spark HA高可用部署

HA高可用+hive+hbase+sqoop+kafka+flume+spark安装部署

第2节 Spark集群安装:1 - 3;第3节 Spark HA高可用部署:1 - 2

3_HA介绍和安装部署

Spark HA on yarn 最简易安装。

Spark standalone下的运行过程