AttributeError:SQLContext 实例没有属性“createDataFrame”

Posted

技术标签:

【中文标题】AttributeError:SQLContext 实例没有属性“createDataFrame”【英文标题】:AttributeError: SQLContext instance has no attribute 'createDataFrame' 【发布时间】:2016-03-15 21:22:08 【问题描述】:

我是 apache spark 的新手,尝试处理大查询,当我尝试运行我在下面共享的代码时,它会给我错误

文件“/****/***/spark-1.1.0/examples/src/main/python/testSql.py”,第 25 行,在 schemaEvents = sqlContext.createDataFrame(事件) AttributeError: SQLContext 实例没有属性'createDataFrame'

我正在关注以下链接进行练习。 https://spark.apache.org/docs/latest/sql-programming-guide.html#dataframes

代码在下面共享。

from pyspark.sql import *


from pyspark import *
#File = "/home/shafee/spark-1.1.0/results-20160315-075804.csv"  # Should be some file on your system
File = ""  # Should be some file on your system
sc = SparkContext()
sqlContext = SQLContext(sc)
Line = sc.textFile("results-20160315-075804.csv")
parts = Line.map(lambda l: l.split(","))
events = parts.map(lambda p: Row(Actor1Name=p[6], SourceUrl=int(p[56])))

schemaEvents = sqlContext.createDataFrame(events)

schemaPeople.registerTempTable("events")
df = sqlContext.sql("SELECT * FROM ").collect()
worldcount = df.count()
print("Totel words counts in csv file: %i" % (worldcount))

【问题讨论】:

【参考方案1】:

您使用的是 Spark 1.1,而 SQLContext.createDataFrame 已在 Spark 1.3 中引入。如果你想使用当前的编程指南,你应该更新 Spark 版本。

【讨论】:

以上是关于AttributeError:SQLContext 实例没有属性“createDataFrame”的主要内容,如果未能解决你的问题,请参考以下文章

Spark Cassandra 连接器:SQLContext.read + SQLContext.write 与手动解析和插入(JSON -> Cassandra)

使用 Pyspark 从 REST API 获取数据到 Spark Dataframe

如何使用 sqlContext 计算累积和

sqlContext.read...load() 和 sqlContext.write...save() 代码在 Spark 集群上运行在哪里?

SparkContext、JavaSparkContext、SQLContext和SparkSession的区别?

只读取 sqlContext 中的前几行或标题