Spark 似乎已安装但无法导入 pyspark 模块

Posted

技术标签:

【中文标题】Spark 似乎已安装但无法导入 pyspark 模块【英文标题】:Spark seems to be installed but can't import pyspark module 【发布时间】:2018-06-22 14:05:22 【问题描述】:

我的pip install pyspark 工作正常,我在命令提示符中收到一条消息,提示 SparkSession 可用作“spark”。

但是,当我这样做时:

from pyspark import SparkContext

它给了我一个:

ModuleNotFoundError: No module named 'pyspark'

有什么问题,我该如何解决?

【问题讨论】:

你需要设置 SPARK_HOME 和 PYTHONPATH 变量集 谢谢,我该怎么做? 你是在linux还是windows上?你知道 spark 目录的路径吗? 【参考方案1】:

你应该通过 pip 安装 findspark 模块然后尝试:

import findspark
findspark.init('<your spark home directory for example /home/spark>')

然后你就可以导入 spark 模块了。

【讨论】:

以上是关于Spark 似乎已安装但无法导入 pyspark 模块的主要内容,如果未能解决你的问题,请参考以下文章

Pyspark (spark 1.6.x) ImportError: 无法导入名称 Py4JJavaError

pyspark addPyFile 添加 .py 文件的 zip,但仍未找到模块

无法让 Spark 在 Windows 中的 IPython Notebook 上工作

Apache Spark:启动 PySpark 时出错

已安装包(Python PIL/Pillow)但我无法导入它

Spark (PySpark) 文件已存在异常