vscode配置spark
Posted wyju
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了vscode配置spark相关的知识,希望对你有一定的参考价值。
1. 解压Spark压缩包到D盘,如下图所示:
2.在环境变量中配置SPARK_HOME,如下图所示:
SPARK_HOME
自己的路径
D:\\axc\\spark-2.4.6-bin-hadoop2.7
3.把SPARK_HOME 设置为python的exe文件
PYSPARK_PYTHON
自己的路径
C:\\Users\\wyj\\AppData\\Local\\Programs\\Python\\Python37\\python.exe
4. 复制spark下的pyspark目录到python安装目录下的lib目录,如下图所示:
5. 通过cmd执行pip install py4j命令安装py4j,py4j是一个在python中调用java代码的第三方库。效果如下图所示:
6.在D盘创建spark目录,存储我们的spark代码。
7.打开vscode,打开问哦们创建的存放spark代码的文件夹
8.在VsCode中创建0-TestSpark.py文件,填入以下内容:
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("WordCount").getOrCreate()
spark.sparkContext.textFile("file:///D:/spark-2.4.6-bin-hadoop2.7/README.md")\\
.flatMap(lambda x: x.split(' '))\\
.map(lambda x: (x, 1))\\
.reduceByKey(lambda x, y: x + y)\\
.foreach(print)
9.运行该python程序,对README.md文件做wordcount,效果如下图所示:
10.到这里我们配置就完成了,之后只要去写py文件就好,不用启动spark集群
以上是关于vscode配置spark的主要内容,如果未能解决你的问题,请参考以下文章
Xdebug 3.0 WSL2 和 VSCode - 有效的配置
错误:无法找到 py4j,您的 SPARK_HOME 可能配置不正确