vscode配置spark

Posted wyju

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了vscode配置spark相关的知识,希望对你有一定的参考价值。

1. 解压Spark压缩包到D盘,如下图所示:

2.在环境变量中配置SPARK_HOME,如下图所示:

SPARK_HOME

自己的路径
D:\\axc\\spark-2.4.6-bin-hadoop2.7

3.把SPARK_HOME 设置为python的exe文件

PYSPARK_PYTHON

自己的路径
C:\\Users\\wyj\\AppData\\Local\\Programs\\Python\\Python37\\python.exe

4. 复制spark下的pyspark目录到python安装目录下的lib目录,如下图所示:

5. 通过cmd执行pip install py4j命令安装py4j,py4j是一个在python中调用java代码的第三方库。效果如下图所示:

6.在D盘创建spark目录,存储我们的spark代码。

7.打开vscode,打开问哦们创建的存放spark代码的文件夹

8.在VsCode中创建0-TestSpark.py文件,填入以下内容:

from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("WordCount").getOrCreate()
spark.sparkContext.textFile("file:///D:/spark-2.4.6-bin-hadoop2.7/README.md")\\
        .flatMap(lambda x: x.split(' '))\\
        .map(lambda x: (x, 1))\\
        .reduceByKey(lambda x, y: x + y)\\
        .foreach(print)

9.运行该python程序,对README.md文件做wordcount,效果如下图所示:

10.到这里我们配置就完成了,之后只要去写py文件就好,不用启动spark集群

以上是关于vscode配置spark的主要内容,如果未能解决你的问题,请参考以下文章

vscode 调试 react 项目

Xdebug 3.0 WSL2 和 VSCode - 有效的配置

错误:无法找到 py4j,您的 SPARK_HOME 可能配置不正确

如何使用 Spark 数据帧将 csv 数据加载到配置单元中?

VSCode 配置快速输入函数注释

VSCode 配置快速输入函数注释