Pyspark 安装错误:没有名为“pyspark”的模块

Posted

技术标签:

【中文标题】Pyspark 安装错误:没有名为“pyspark”的模块【英文标题】:Pyspark installationError: No module named 'pyspark' 【发布时间】:2019-08-15 17:47:38 【问题描述】:

我希望在不使用 pip 的情况下安装 pyspark 模块。 我已完成所有安装步骤,但仍然没有收到名为“pyspark”的模块。

我已经从https://spark.apache.org下载了apache spark

我也关注了:

https://www.youtube.com/watch?v=iarn1KHeouc&list=PLot-YkcC7wZ_2sxmRTZr2c121rjcaleqv&index=3 https://medium.com/@GalarnykMichael/install-spark-on-windows-pyspark-4498a5d8d66c

Here is the error image

【问题讨论】:

在错误图像中,我没有看到任何错误。有什么问题? 【参考方案1】:

看看https://medium.com/big-data-engineering/how-to-install-apache-spark-2-x-in-your-pc-e2047246ffc3。它适用于 Windows 平台,并且还与 Jupyter Notebook 兼容。

【讨论】:

请避免仅链接答案,因为目标站点将来可能无法访问。引用FAQ中所述的回答问题的部分。

以上是关于Pyspark 安装错误:没有名为“pyspark”的模块的主要内容,如果未能解决你的问题,请参考以下文章

即使使用较旧的 spark 版本,也没有名为“pyspark.streaming.kafka”的模块

将 pyspark pandas_udf 与 AWS EMR 一起使用时出现“没有名为‘pandas’的模块”错误

pyspark:ImportError:没有名为 numpy 的模块

pyspark 为自定义模块返回名为错误的无模块

获取:导入 Spark 模块时出错:没有名为“pyspark.streaming.kafka”的模块

带有 conda 集成的 pySpark 抛出错误 pyspark 无法识别