将 rdd 转换为数据框:AttributeError: 'RDD' object has no attribute 'toDF' using PySpark

Posted

技术标签:

【中文标题】将 rdd 转换为数据框:AttributeError: \'RDD\' object has no attribute \'toDF\' using PySpark【英文标题】:Converting rdd to dataframe: AttributeError: 'RDD' object has no attribute 'toDF' using PySpark将 rdd 转换为数据框:AttributeError: 'RDD' object has no attribute 'toDF' using PySpark 【发布时间】:2020-08-16 20:01:04 【问题描述】:

我正在尝试使用 PySpark 将 RDD 转换为 DataFrame。下面是我的代码。

from pyspark import SparkConf, SparkContext
from pyspark.sql.functions import *
from pyspark.sql import SparkSession

conf = SparkConf().setMaster("local").setAppName("Dataframe_examples")
sc = SparkContext(conf=conf)

def parsedLine(line):
    fields = line.split(',')
    movieId = fields[0]
    movieName = fields[1]
    genres = fields[2]
    return movieId, movieName, genres

movies = sc.textFile("file:///home/ajit/ml-25m/movies.csv")
parsedLines = movies.map(parsedLine)
print(parsedLines.count())

dataFrame = parsedLines.toDF(["movieId"])
dataFrame.printSchema()

我正在使用 PyCharm IDE 运行此代码。

我得到了错误:

File "/home/ajit/PycharmProjects/pythonProject/Dataframe_examples.py", line 19, in <module>
    dataFrame = parsedLines.toDF(["movieId"])
AttributeError: 'PipelinedRDD' object has no attribute 'toDF'

由于我是新手,请告诉我我缺少什么?

【问题讨论】:

【参考方案1】:

通过传递 sparkcontext 初始化 SparkSession

Example:

from pyspark import SparkConf, SparkContext
from pyspark.sql.functions import *
from pyspark.sql import SparkSession

conf = SparkConf().setMaster("local").setAppName("Dataframe_examples")
sc = SparkContext(conf=conf)

spark = SparkSession(sc)

def parsedLine(line):
    fields = line.split(',')
    movieId = fields[0]
    movieName = fields[1]
    genres = fields[2]
    return movieId, movieName, genres

movies = sc.textFile("file:///home/ajit/ml-25m/movies.csv")

#or using spark.sparkContext
movies = spark.sparkContext.textFile("file:///home/ajit/ml-25m/movies.csv")

parsedLines = movies.map(parsedLine)
print(parsedLines.count())

dataFrame = parsedLines.toDF(["movieId"])
dataFrame.printSchema()

【讨论】:

【参考方案2】:

使用SparkSession制作RDD数据框如下:

movies = sc.textFile("file:///home/ajit/ml-25m/movies.csv")
parsedLines = movies.map(parsedLine)
print(parsedLines.count())

spark = SparkSession.builder.getOrCreate()
dataFrame = spark.createDataFrame(parsedLines).toDF(["movieId"])
dataFrame.printSchema()

或首先使用会话中的火花上下文。

spark = SparkSession.builder.master("local").appName("Dataframe_examples").getOrCreate()
sc = spark.sparkContext

【讨论】:

以上是关于将 rdd 转换为数据框:AttributeError: 'RDD' object has no attribute 'toDF' using PySpark的主要内容,如果未能解决你的问题,请参考以下文章

如何在火花中将rdd对象转换为数据框

Pyspark - 将rdd转换为数据框时数据设置为null

如何将 RDD [GenericRecord] 转换为 scala 中的数据框?

为啥 list 应该先转换为 RDD 再转换为 Dataframe?有啥方法可以将列表转换为数据框?

将 Pyspark RDD 转换为 Pandas 数据框

Spark:如何将具有多列的 RDD 转换为数据框