从 Pandas Dataframe 错误创建 Spark DataFrame
Posted
技术标签:
【中文标题】从 Pandas Dataframe 错误创建 Spark DataFrame【英文标题】:Create Spark DataFrame from Pandas Dataframe Error 【发布时间】:2018-03-20 06:35:55 【问题描述】:我正在尝试从 Pandas 数据框创建 Spark 数据框,并尝试了许多解决方法,但仍然失败。这是我的代码,我只是想遵循许多基本示例之一:
test = pd.DataFrame([1,2,3,4,5])
type(test)
from pyspark import SparkContext
sc = SparkContext(master="local[4]")
sqlCtx = SQLContext(sc)
spark_df = sqlCtx.createDataFrame(test)
我正在尝试使用具有 2000 列和数十万行的 pandas 数据框进行上述操作,但我创建了上述测试 df 只是为了确保数据框没有问题。确实我得到了完全相同的错误:
Py4JJavaError: An error occurred while calling o596.get.
: java.util.NoSuchElementException: spark.sql.execution.pandas.respectSessionTimeZone
at org.apache.spark.sql.internal.SQLConf$$anonfun$getConfString$2.apply(SQLConf.scala:884)
at org.apache.spark.sql.internal.SQLConf$$anonfun$getConfString$2.apply(SQLConf.scala:884)
at scala.Option.getOrElse(Option.scala:121)
at org.apache.spark.sql.internal.SQLConf.getConfString(SQLConf.scala:884)
at org.apache.spark.sql.RuntimeConfig.get(RuntimeConfig.scala:74)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
at py4j.Gateway.invoke(Gateway.java:280)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:214)
at java.lang.Thread.run(Thread.java:748)
【问题讨论】:
在上面的代码中,我假设data
应该是test
?
是的,我很抱歉,应该这样。
【参考方案1】:
你有这套吗?
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
也只是为了确定,将路径添加到
py4j zip(我的是 py4j-0.10.1-src.zip)
在spark目录中为:
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.10.1-src.zip:$PYTHONPATH
【讨论】:
非常接近,问题是我忘记将其添加到笔记本的开头。无论如何都非常感谢!导入 findspark findspark.init() 我不知道“findspark”。很高兴知道!【参考方案2】:我解决了这个问题 - 我忘记将以下代码行添加到我的 anaconda 笔记本的开头:
import findspark
findspark.init()
【讨论】:
@desertnaut 似乎这是问题的答案。以上是关于从 Pandas Dataframe 错误创建 Spark DataFrame的主要内容,如果未能解决你的问题,请参考以下文章
使用 .loc 函数错误的 Pandas DataFrame 时间索引
如何从 Python Pandas DataFrame 中的循环结果中删除重复项?