安装standalone模式的spark

Posted wyju

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了安装standalone模式的spark相关的知识,希望对你有一定的参考价值。

1.通过以下步骤,配置Worker节点

a) 重命名slaves.template文件为slaves,使用以下命令:

mv /usr/local/spark/conf/slaves.template /usr/local/spark/conf/slaves

b) 编辑slaves文件,使用以下命令:

vim /usr/local/spark/conf/slaves

c) 替换原有的localhost为以下内容:

master
slave1
slave2

2.通过以下步骤,配置Spark集群运行参数:

a) 重命名spark-env.sh.template配置文件为spark-env.sh

mv /usr/local/spark/conf/spark-env.sh.template /usr/local/spark/conf/spark-env.sh

b) 编辑spark-env.sh文件,在最后追加以下内容:

vim /usr/local/spark/conf/spark-env.sh
# 设置 JDK 目录
export JAVA_HOME=/usr/local/lib/jdk1.8.0_212
# 设置 web 监控页面端口号
export SPARK_MASTER_WEB_PORT=7077
# 设置 zookeeper 集群地址,实现高可用
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181 -Dspark.deploy.zookeeper.dir=/usr/local/spark"
# 设置 YARN 的配置文件目录
export YARN_CONF_DIR=/usr/local/hadoop/etc/hadoop
# 设置 HDFS 的配置文件目录
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop

3.修改web端口为8085

vim /usr/local/spark/sbin/start-master.sh

4.通过以下步骤,部署Spark到slave1和slave2:

a) 创建spark目录,在slave1和slave2使用以下命令:

sudo mkdir /usr/local/spark

b) 修改spark目录的所有者为hadoop用户,在slave1和slave2使用以下命令:

sudo chown hadoop /usr/local/spark/

c) 发送spark给slave1和slave2,在master使用以下命令:

scp -r /usr/local/spark/* hadoop@slave1:/usr/local/spark/
scp -r /usr/local/spark/* hadoop@slave2:/usr/local/spark/

d)分别进入到/usr/local/spark中查看是否发送成功


e) 发送环境变量给slave1和slave2,在master使用以下命令:

scp /home/hadoop/.bashrc hadoop@slave1:/home/hadoop/
scp /home/hadoop/.bashrc hadoop@slave2:/home/hadoop/

f) 刷新环境变量,在slave1和slave2使用以下命令:

source /home/hadoop/.bashrc

测试

1.启动zookeeper(三台虚拟机都要启动)

zkServer.sh start

2.在master上启动spark

一定要先进入到spark中

cd /usr/local/spark/

sbin/start-all.sh

3.在slave1启动备用master,在slave1使用以下命令:

start-master.sh

4.查看进程

jps

5.查看web端口8085

大家只有三个workers Id即可

6.关闭集群

# 关闭spark集群(在master上)
sbin/stop-all.sh
# 关闭 master(在salve1上)
 stop-master.sh
# 关闭zookeeper(三台都要执行)
zkServer.sh stop

以上是关于安装standalone模式的spark的主要内容,如果未能解决你的问题,请参考以下文章

Spark新手入门——3.Spark集群(standalone模式)安装

Spark集群安装部署(基于Standalone模式)

Spark安装部署(local和standalone模式)

Spark2.1集群安装(standalone模式)

SparkSpark的Standalone模式安装部署

Spark standalone下的运行过程