有没有办法将 Spark 数据帧写入 .dat 文件?

Posted

技术标签:

【中文标题】有没有办法将 Spark 数据帧写入 .dat 文件?【英文标题】:Is there a way to write a Spark dataframe to a .dat file? 【发布时间】:2020-09-19 06:59:01 【问题描述】:

我试过这个,但没有用。据我了解,Spark 不支持.dat 文件格式。我不想将文件写为.csv.json,然后稍后通过shell 脚本进行转换。

a.write.format("dat").save(outputPath)

【问题讨论】:

DAT 是一种泛型类型,只有创建它的应用程序才能理解。首先可以是二进制或文本,具体取决于应用程序。因此,有效的 Spark 将无法理解这种格式,因为每个应用程序都会有所不同。直到和除非它以 Spark 支持的格式之一存储 没有内置或直接支持您正在寻找的内容 【参考方案1】:

Spark 格式函数不接受“dat”作为参数。您可以在文档中获得更多信息:https://spark.apache.org/docs/latest/sql-data-sources-load-save-functions.html

很抱歉,您可以做的最简单的事情是创建 csv 并稍后将其转换为 dat

【讨论】:

以上是关于有没有办法将 Spark 数据帧写入 .dat 文件?的主要内容,如果未能解决你的问题,请参考以下文章

在 Apache Spark 中,用 Java 将数据帧写入 Hive 表

将大型 Spark 数据帧从数据块写入 csv 失败

将 Spark 数据帧写入带分区的 CSV

将 Spark 数据帧写入带分区的 CSV

将 spark 数据帧写入 postgres 数据库

如何将 Spark 数据帧写入 impala 数据库