搭建Spark开发环境(第二弹)

Posted 发量不足

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了搭建Spark开发环境(第二弹)相关的知识,希望对你有一定的参考价值。

                                      😊😊😊欢迎来到本博客😊😊😊

                                    本篇介绍的是Spark环境的准备🛠🛠🛠

                                    预更新📑:体验第一个Spark程序

    

目录

                                     一.环境准备

                                    二·.spark的部署方式

                                    三.spark集群安装部署

一.环境准备

配置环境:Hadoop、spark(本人是2.0.0)、JDK(1.8)、Linux(Centos6.7)

二·.spark的部署方式

spark部署模式分为Local模式集群模式,在local模式,常用于本地开发与测试,集群模式又分为standalone模式(集群单机模式)、Yarn模式、mesos模式

三.spark集群安装部署

1下载spark安装包.

下载spark安装包 在Apache spark官网下载网址:Downloads | Apache Spark (最新且稳定的版本是3.2.1,本人安装版本为2.0.0)

2.解压spark安装包

步骤1  先 alt+P,再拉spark-2.3.2-bin-hadoop2.7.tgz上传/opt/software目录下

回到master切换hadoop用户

$su Hadoop

$ cd /opt/software

$ls

$ tar -zxvf spark-2.3.2-bin-hadoop2.7.tgz -C /opt/module/

3.修改配置文件

步骤1 使用mv命令将spark-2.3.2-bin-hadoop2.7重名为spark

$cd /opt/module

$ mv spark-2.3.2-bin-hadoop2.7/ spark

步骤2 先进入/opt/module/spark/conf/目录,将spark-env.sh.template复制给spark-env.sh

$ cd /spark/conf

$ ls

$ cp spark-env.sh.template spark-env.sh

步骤3 修改spark-env.sh,配置内容:

$vi spark-env.sh

# Java环境变量

export JAVA_HOME=/opt/module/jdk1.8.0_144

# 指定master的 IP

export SPARK_MASTER_HOST=master

# 指定master的 端口

export SPARK_MASTER_PORT=7077

步骤4 复制slaves.template slaves 并重命名slaves

cp slaves.template slaves

步骤5 使用vi slaves命令编辑slaves配置文件,指定从节点IP

$vi slaves

Slave1

Slave2

4.分发文件

步骤1 将spark目录分发slave1和slave2

$scp -r /opt/module/spark/ slave1:/opt/module/

$ scp -r /opt/module/spark/ slave2:/opt/module/

5 启动spark集群

cd ..(回到spark目录)

步骤1  $ sbin/start-all.sh

步骤2   先使用ssh命令切到slave1、slave2,使用jps查看各节点进程,主节点有master,从节点有worker

步骤3  访问spark管理界面(master) http://192.168.196.101:8080,如图:

看到该状态

以上是关于搭建Spark开发环境(第二弹)的主要内容,如果未能解决你的问题,请参考以下文章

虚拟化技术浅析第二弹之初识Kubernetes

:本机开发环境搭建

lavarel从零开始-第二弹(vue环境)

Compose跨平台第二弹:体验Compose for Web

如何使用VS Code编写Spring Boot (第二弹)

Mac上搭建Hadoop+Hive+Spark开发环境