Linux(基于CentOS7)单机版Spark环境搭建

Posted 小董的代码之路

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Linux(基于CentOS7)单机版Spark环境搭建相关的知识,希望对你有一定的参考价值。

目录

1.安装Python3.7版本

2.安装Spark与JDK

3.启动SPARK


1.安装Python3.7版本

 1.首先安装gcc编译器,gcc有些系统版本已经默认安装,通过 gcc --version 查看,没安装的先安装gcc,yum -y install gcch

2.安装其它依赖包,此步为必要性操作。

yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4-devel libpcap-devel xz-devel libffi-devel

或者使用yum -y groupinstall "Development tools 命令把所有开发环境的依赖包安装好

3.下载python3.7.x源码,根据需求下载,到官网https://www.python.org/downloads/source/上进行下载,下载taz格式的压缩包文件,然后对压缩包上传至linux服务器

也可以使用wget https://www.python.org/ftp/python/3.7.3/Python-3.7.3.tgz 直接进行安装,注意看自己所处的目录,如果想安装到其他目录也可以

例如,我的下载地址为 /opt/software/

wget https://www.python.org/ftp/python/3.7.3/Python-3.7.3.tgz /opt/software/

如若此处下载过慢,可以使用国内镜像源

ll一下 发现我们的python压缩包已经下载好了

 

4.解压python3.7.3 解压命令为: tar -zxvf Pyhon-3.7.3.tgz -C /opt/moudule  这是我的解压路径 -C参数表示指定安装路径
5.建立一个空文件夹,用于存放python3程序      mkdir /usr/local/python3 
6.执行配置文件,编译,编译安装 
cd Python-3.7.3
./configure --prefix=/usr/local/python3
make && make install

7.建立软连接(因为Centos7已经自带python2版本,所以我们要下载python3并建立软连接并进行区别)

ln -s /usr/local/python3/bin/python3.7 /usr/bin/python3
ln -s /usr/local/python3/bin/pip3.7 /usr/bin/pip3

8.测试一下python3是否已经安装好并可用

 

此时出现版本信息,OK安装完成

 

2.安装Spark与JDK

 1.下载Spark与JDK安装包并解压,方法同上,这里我不再赘述

 这里我使用的是jdk1.8.0与spark3.2

2.配置JDK环境变量,这里我的安装目录为/opt/module

新建/etc/profile.d/my_env.sh文件(注:my_env.sh,关键是.sh后缀,名称任取)

vim /etc/profile.d/my_env.sh

添加如下内容

#JAVA_HOME

export JAVA_HOME=/opt/module/jdk1.8.0_212

export PATH=$PATH:$JAVA_HOME/bin

保存并退出,然后我们  source /etc/profile  一下,让新的环境变量PATH生效

最后我们 java -version一下看看是否环境配置成功

入股

如果此时未出现java版本信息可以reboot一下

2.配置SPARK环境变量,这里我的安装目录为/opt/module

首先,我们进入spark安装目录下的conf子目录

 

 修改配置文件spark-env.sh,注意,这个文件默认不存在,这里有spark-env.sh.template,复制一份并命名新文件为spark-env.sh

cp spark-vev.sh.template spark-env.sh

 

 查看之前的JAVA_HOME路径,在下一步中使用

修改文件spark-env.sh,在文件末尾添加如下内容:

#export SCALA_HOME=/opt/scala-2.13.0
export JAVA_HOME=/opt/moudle/jdk1.8.0_115  #这里是你jdk的安装路径
export SPARK_HOME=/opt/moudle/spark-2.3.1 #这里是你spark的安装路径
export SPARK_MASTER_IP=XXX.XX.XX.XXX  #将这里的xxx改为自己的Linux的ip地址
#export SPARK_EXECUTOR_MEMORY=512M
#export SPARK_WORKER_MEMORY=1G
#export master=spark://XXX.XX.XX.XXX:7070

 新建workers配置文件(子节点配置文件):

        进入spark的conf目录下:cd  /opt/module/spark-3.2.0-bin-hadoop2.7/conf

 

           copy一份slaves:cp  workers.template workers

          然后进入vim编辑模式:vim  workers,会提示文件已存在,输入“e”进入编辑模式即可。

         在文件的最后加上如下配置:localhost


 

如果已有则不需要添加 

3.启动SPARK

1.进入spark的sbin目录:cd  sbin/

2.启动spark集群(单机版): ./start-all.sh

然后等待,如果没有报错,然后我们jps一下

 发送JPS与Mster 与Worker都成功启动,说明SPARK配置成功

接下来我们就可以用Windows的pycharm连接linux进行编程作业啦!

以上是关于Linux(基于CentOS7)单机版Spark环境搭建的主要内容,如果未能解决你的问题,请参考以下文章

centos部署单机spark大数据环境--安装mysql

Linux单机安转Spark

使用 TiUP cluster 在单机上模拟生产环境部署步骤

使用 TiUP cluster 在单机上模拟生产环境部署步骤

大数据常用软件安装指南

Arctern Spark单机可视化入门