spark集群更换python安装环境

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark集群更换python安装环境相关的知识,希望对你有一定的参考价值。

    由于需要用到很多第三方的包,比如numpy,pandas等,而生产环境又无法上网单个包安装太麻烦,因此考虑把之前安装的python的独立环境换成Anaconda的集成开发环境。以下是具体步骤:
            1安装Anaconda3-5.0.1-Linux-x86_64.sh脚本
            2给/opt/modules/anaconda3/bin/python3.6建立软链接

ln -s /opt/modules/anaconda3/bin/python /usr/bin/python3
3修改root环境变量
/root/.bashrc
/root/.bash_profile
修改hdfs用户环境变量,因为集群操作大多有hdfs用户完成。
su - hdfs
~/.bashrc
export PATH="/usr/bin:$PATH"
4修改pyspark2命令
vi /usr/bin/pyspark2
修改spark2-submit命令
vi /usr/bin/spark2-submit
修改PYSPARK_PYTHON这个变量
几个节点都要修改,之后spark更换到新的python,常用的包都有了。

以上是关于spark集群更换python安装环境的主要内容,如果未能解决你的问题,请参考以下文章

使用docker安装部署Spark集群来训练CNN(含Python实例)

2020/1/27寒假自学——学习进度报告7

python开发sparkSQL应用

大数据高可用集群环境安装与配置(09)——安装Spark高可用集群

华为云Hadoop与Spark集群环境搭建

Kafka:ZK+Kafka+Spark Streaming集群环境搭建安装spark2.2.1