安装 Spark 问题。无法使用 pyspark 打开 IPython Notebook

Posted

技术标签:

【中文标题】安装 Spark 问题。无法使用 pyspark 打开 IPython Notebook【英文标题】:install Spark issue. Cannot open IPython Notebook with pyspark 【发布时间】:2015-02-01 17:06:58 【问题描述】:

这里是错误链接:http://i.imgur.com/N9ccVsM.jpg

我正在尝试独立安装 spark 工作,但出现此错误。我将环境变量中的 JAVA_HOME 设置为“C:\Program Files (x86)\Java\jre1.8.0_31”。

我输入 pyspark 后,ipthon notebook 应该会在新标签页中打开,但它没有。

似乎找不到带有“笔记本”的东西,但不确定

谢谢 马特

【问题讨论】:

Windows 是一场灾难。在VM 上安装ubuntu server 并从那里运行Spark/IPython。它会让你的生活没有压力。 【参考方案1】:

花费 2.5 小时后,问题被设置为 IPYTHON_OPTS="notebook" 应该是 IPYTHON_OPTS=notebook。没有引号。

【讨论】:

我无法在我的笔记本上运行 pyspark。当我运行以下命令时:IPYTHON_OPTS=notebook ./bin/pyspark,它说 IPYTHON_OPTS 未被识别为内部或外部命令【参考方案2】:

由于你一直在Window中执行,你需要先设置IPYTHON_OPTS变量,然后执行命令启动pyspark

    设置 IPYTHON_OPTS=notebook

    ./bin/pyspark

【讨论】:

【参考方案3】:

我也试过这种方法;它行不通。我在 Windows 10 和 7 上成功使用了以下内容,使用 Enthought Canopy 作为我的 IDE 和 IPython 笔记本。

第 1 步。检查 Python 和 Spark 的环境变量。可以直接从命令提示符启动 pyspark 吗?

第 2 步。启动 Python(或 IPython)

第 3 步。使用(并根据您的机器调整)以下代码:

import os

import sys

spark_home = os.environ.get('SPARK_HOME', None)

if not spark_home:

raise ValueError('SPARK_HOME environment variable is not set')

sys.path.insert(0, os.path.join(spark_home, 'python'))

sys.path.insert(0, os.path.join(spark_home, 'C:/spark-1.6.0-bin-hadoop2.6/python/lib/py4j-0.9-src.zip'))

execfile(os.path.join(spark_home, 'python/pyspark/shell.py'))

如果您按照我的步骤进行操作,您应该可以启动并运行 spark。

pyspark

【讨论】:

以上是关于安装 Spark 问题。无法使用 pyspark 打开 IPython Notebook的主要内容,如果未能解决你的问题,请参考以下文章

Spark 似乎已安装但无法导入 pyspark 模块

Pyspark 命令无法识别

pyspark 无法启动

即使使用较旧的 spark 版本,也没有名为“pyspark.streaming.kafka”的模块

在 pyspark 中无法读取 avro 格式问题

pyspark 需要本地安装 Spark 吗?