Spark 似乎已安装但无法导入 pyspark 模块
Posted
技术标签:
【中文标题】Spark 似乎已安装但无法导入 pyspark 模块【英文标题】:Spark seems to be installed but can't import pyspark module 【发布时间】:2018-06-22 14:05:22 【问题描述】:我的pip install pyspark
工作正常,我在命令提示符中收到一条消息,提示 SparkSession 可用作“spark”。
但是,当我这样做时:
from pyspark import SparkContext
它给了我一个:
ModuleNotFoundError: No module named 'pyspark'
有什么问题,我该如何解决?
【问题讨论】:
你需要设置 SPARK_HOME 和 PYTHONPATH 变量集 谢谢,我该怎么做? 你是在linux还是windows上?你知道 spark 目录的路径吗? 【参考方案1】:你应该通过 pip 安装 findspark 模块然后尝试:
import findspark
findspark.init('<your spark home directory for example /home/spark>')
然后你就可以导入 spark 模块了。
【讨论】:
以上是关于Spark 似乎已安装但无法导入 pyspark 模块的主要内容,如果未能解决你的问题,请参考以下文章
Pyspark (spark 1.6.x) ImportError: 无法导入名称 Py4JJavaError
pyspark addPyFile 添加 .py 文件的 zip,但仍未找到模块
无法让 Spark 在 Windows 中的 IPython Notebook 上工作