Python pyspark 将 DF 写入 .csv 并存储在本地 C 盘

Posted

技术标签:

【中文标题】Python pyspark 将 DF 写入 .csv 并存储在本地 C 盘【英文标题】:Python pyspark Write DF to .csv and store it in local c drive 【发布时间】:2020-09-11 09:58:03 【问题描述】:

我想保存一个使用 SQLContext 提取数据的数据框,并将其保存到 C 盘中的 .csv 文件中。我正在使用 Zeppelin 运行我的代码。

以下代码运行,但我在指定位置看不到文件。 SQLContect 中的选择查询正在从 HIVE DB 中提取数据。

%spark.pyspark

df = sqlContext.sql("SELECT * from TEST")
df.write.format("csv").mode("overwrite").save("\Users\testuser\testfolder\test.csv")

z.show(df)

【问题讨论】:

\ 替换为\\ 或使用正斜杠... 【参考方案1】:

如果我没看错,你就在 Windows 中。在这种情况下,您需要将所需的前缀添加到您的路径中。您的路径将类似于 C:\Users\testuser\testfolder\test.csv

【讨论】:

这个我试过了,还是没有在C盘创建文件。

以上是关于Python pyspark 将 DF 写入 .csv 并存储在本地 C 盘的主要内容,如果未能解决你的问题,请参考以下文章

使用 pySpark 将 DataFrame 写入 mysql 表

pyspark:数据帧写入镶木地板

将 pyspark Rdd 写入 csv 文件

使用 pyspark 将数据帧写入 Kafka 时出现异常

如何让 PySpark 在内存不足之前将中间结果写入磁盘?

在 PySpark 中将 Python Dict 转换为稀疏 RDD 或 DF