如何加载包含多行记录的 CSV 文件?

Posted

技术标签:

【中文标题】如何加载包含多行记录的 CSV 文件?【英文标题】:How to load CSV file with records on multiple lines? 【发布时间】:2018-05-05 10:45:00 【问题描述】:

我使用 Spark 2.3.0。

作为 Apache Spark 的项目,我正在使用 this 数据集进行处理。尝试使用 spark 读取 csv 时,spark 数据帧中的行与 csv 中的正确行不对应(请参阅示例 csv here)文件。代码如下所示:

answer_df = sparkSession.read.csv('./stacksample/Answers_sample.csv', header=True, inferSchema=True, multiLine=True);
answer_df.show(2)

输出

+--------------------+-------------+--------------------+--------+-----+--------------------+
|                  Id|  OwnerUserId|        CreationDate|ParentId|Score|                Body|
+--------------------+-------------+--------------------+--------+-----+--------------------+
|                  92|           61|2008-08-01T14:45:37Z|      90|   13|"<p><a href=""htt...|
|<p>A very good re...| though.</p>"|                null|    null| null|                null|
+--------------------+-------------+--------------------+--------+-----+--------------------+
only showing top 2 rows

然而, 当我使用 pandas 时,它就像一个魅力。

df = pd.read_csv('./stacksample/Answers_sample.csv')
df.head(3) 

输出

Index Id    OwnerUserId CreationDate    ParentId    Score   Body
0   92  61  2008-08-01T14:45:37Z    90  13  <p><a href="http://svnbook.red-bean.com/">Vers...
1   124 26  2008-08-01T16:09:47Z    80  12  <p>I wound up using this. It is a kind of a ha...

我的观察: Apache spark 将 csv 文件中的每一行视为数据帧的记录(这是合理的),但另一方面,pandas 智能地(不确定基于哪些参数)找出记录的实际结束位置。

问题 我想知道,如何指示 Spark 正确加载数据帧。

要加载的数据如下,92124开头的行是两条记录。

Id,OwnerUserId,CreationDate,ParentId,Score,Body
92,61,2008-08-01T14:45:37Z,90,13,"<p><a href=""http://svnbook.red-bean.com/"">Version Control with Subversion</a></p>

<p>A very good resource for source control in general. Not really TortoiseSVN specific, though.</p>"
124,26,2008-08-01T16:09:47Z,80,12,"<p>I wound up using this. It is a kind of a hack, but it actually works pretty well. The only thing is you have to be very careful with your semicolons. : D</p>

<pre><code>var strSql:String = stream.readUTFBytes(stream.bytesAvailable);      
var i:Number = 0;
var strSqlSplit:Array = strSql.split("";"");
for (i = 0; i &lt; strSqlSplit.length; i++)
    NonQuery(strSqlSplit[i].toString());

</code></pre>
"

【问题讨论】:

【参考方案1】:

认为你应该使用option("escape", "\""),因为"似乎被用作所谓的quote escape characters。

val q = spark.read
  .option("multiLine", true)
  .option("header", true)
  .option("escape", "\"")
  .csv("input.csv")
scala> q.show
+---+-----------+--------------------+--------+-----+--------------------+
| Id|OwnerUserId|        CreationDate|ParentId|Score|                Body|
+---+-----------+--------------------+--------+-----+--------------------+
| 92|         61|2008-08-01T14:45:37Z|      90|   13|<p><a href="http:...|
|124|         26|2008-08-01T16:09:47Z|      80|   12|<p>I wound up usi...|
+---+-----------+--------------------+--------+-----+--------------------+

【讨论】:

【参考方案2】:

经过几个小时的努力,我终于找到了解决方案。

分析: *** 提供的数据转储使 quote(") 被另一个 quote(") 转义。而且由于 spark 使用 slash(\) 作为转义字符的默认值,我没有通过,因此它最终给出了毫无意义的输出。

更新代码

answer_df = sparkSession.read.\
    csv('./stacksample/Answers_sample.csv', 
        inferSchema=True, header=True, multiLine=True, escape='"');

answer_df.show(2)

注意csv()escape参数的使用。

输出

+---+-----------+-------------------+--------+-----+--------------------+
| Id|OwnerUserId|       CreationDate|ParentId|Score|                Body|
+---+-----------+-------------------+--------+-----+--------------------+
| 92|         61|2008-08-01 20:15:37|      90|   13|<p><a href="http:...|
|124|         26|2008-08-01 21:39:47|      80|   12|<p>I wound up usi...|
+---+-----------+-------------------+--------+-----+--------------------+

希望它能帮助其他人并为他们节省一些时间。

【讨论】:

噢!看起来我们同时拥有它! :) 我会接受你的回答,但会保留我的,并且我还添加了一些基本分析(它可能有助于其他人理解) 我正要写“请接受你的回答,我会删除我的。”但是你的慷慨极大地影响了我的决定:)

以上是关于如何加载包含多行记录的 CSV 文件?的主要内容,如果未能解决你的问题,请参考以下文章

Python入门教程第72篇 读取CSV文件

如何在将 csv 文件加载到配置单元表时跳过页脚/拖车记录

如何在 Web 服务 Azure 机器学习工作室中执行多行

PySpark (Python):通过 SparkContext.newAPIHadoopFile 加载多行记录

尝试将 csv 文件加载到雪花数据库时出现“在预期解析列时到达记录结尾”错误

使用 python,我如何从 csv 中获取唯一行,但获取合并了哪些行(或行中的值)的记录?