超大CSV文件如何最快速度解析
Posted 林老师带你学编程
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了超大CSV文件如何最快速度解析相关的知识,希望对你有一定的参考价值。
背景:今天被人问到一个10G的超大CSV如何最快速度读取,并插入到数据库中。一般读取文件都是单线程一直往下读,但是如果文件特别大的情况下就会很慢。如何快速读取?脑海里面"多线程"一下子就浮出水面了,想要快速读取文件,肯定得多线程一起读取。那问题来了,一个文件怎么样进行多线程读取,首先得知道每个线程要负责读取的位置,才可以多线程完整的读取一行的数据。
linux文件底层存储结构
在回答这个问题之前,我们先要了解一下linux操作系统底层是如何存储文件的,知道这个底层原理之后,我们才能更好的问答这个问题。
从上图我们可以看出,操作系统里面包含文件系统,可以快速根据文件路径定位到文件具体位置,文件本身并非直接存储在磁盘上面的,一个文件由很多块组成,根据不同的文件系统,每一个块的默认大小也都不一样,比如在 Windows 系统下,默认的 NTFS 文件系统的文件块大小为 4KB。
读取方案设计
想要最快速度读取文件里面的内容,无疑要用到多线程,那如何用多线程去读取文件呢?这也是有所讲究的,如果用错方法可能多线程的速度还不如单线程去获取。
按行多线程读取
直接读取文件的总行数,然后按照10个线程来计算,每一个线程要处理多少范围行数的数据,最后线程各自对同一份文件进行数据处理。
这种方案最大的问题就是忽略了各个线程在读取指定行数的复杂度,并非O(1)而是O(n),所以线程在读取文件的时候,检索数据这个过程会耗费一定时间,总体查询速度并不高,甚至可能比单线程更慢。
大转小后多线程读取
将大文件拆分为一个个小文件,然后多线程去读取各个小文件,这样速度会比读取一个大文件快很多,而且读取的程序也比较简单。
例如linux提供了split命令,可以按照行和字节进行拆分。但是不管是按照行或者字节,底层都是通过直接多线程读取文件块,来快速处理的。
split在按行拆分的情况下,如果要处理大量的文件,可以将每个文件拆分成若干个块,然后使用多线程来同时处理这些块,以提高拆分效率。每个线程读取一个块,处理完后,将结果保存到对应的输出文件中。
在按字节拆分的情况下,同样可以使用多线程来加快拆分速度。可以将文件划分为若干个块,每个线程读取一个块,然后根据指定的字节数进行拆分,并将结果保存到对应的输出文件中。
这种大文件转小文件,然后多线程读取的方式,如果是离线分析,那肯定是首选,但是如果是在线程序分析,将文件拆分再读取,过程会很繁琐,实现上面也比较复杂,也不是非常推荐这种方案。
多线程按块读取
获取文件的size,假如文件是10G,按照10线程,每一个线程负责1G范围的数据检索,例如线程1负责0指针位置的块,线程2负责1G指针位置块,到线程10负责9G指针位置块。
除了1线程,其它线程都从原本位置向前查找换行符,找到之后从当下位置开始,一直读取到2G位置的下一个换行符。这样就可以多线程快速的读取一个文件的数据,但是会有极少数数据的重复获取。
因为按照字节位置索引文件的复杂度是O(1),也就是知道文件的指针之后,可以马上读取该指针下的数据,这样可以避免第一种方案中需要遍历一遍文件内容,才能找到对应行的指针位置的问题。多线程按块读取方案相对上面两种,无疑是最快的一种方式。
复盘总结
其实多线程按块读取之后还可以继续优化,为什么呢?因为线程再多,最大的读取速度也受限于:文件所在机器的IO、应用机器和文件所在机器的网络、应用机器的IO这几方面,可以继续在这几方面优化。看似简单大文件读取操作,却涉及底层文件系统。所以处理问题或者设计方案,一定要多考虑几层,可以基于底层原理来设计方案,才是最可靠的。
读取 .csv 文件时在 Python 中解析日期的最快方法是啥?
【中文标题】读取 .csv 文件时在 Python 中解析日期的最快方法是啥?【英文标题】:The fastest way to parse dates in Python when reading .csv file?读取 .csv 文件时在 Python 中解析日期的最快方法是什么? 【发布时间】:2016-12-03 09:34:06 【问题描述】:我有一个 .csv 文件,其中有 'Date'
和 ' Time'
的 2 个单独的列。我是这样阅读文件的:
data1 = pd.read_csv('filename.csv', parse_dates=['Date', 'Time'])
但似乎只有' Date'
列是时间格式,而'Time'
列仍然是字符串或时间格式以外的格式。
当我执行以下操作时:
data0 = pd.read_csv('filename.csv')
data0['Date'] = pd.to_datetime(data0['Date'])
data0['Time'] = pd.to_datetime(data0['Time'])
它提供了我想要的数据框,但需要相当长的时间。 那么读取文件并从字符串格式转换日期和时间的最快方法是什么?
.csv 文件是这样的:
Date Time Open High Low Close
0 2004-04-12 8:31 AM 1139.870 1140.860 1139.870 1140.860
1 2005-04-12 10:31 AM 1141.219 1141.960 1141.219 1141.960
2 2006-04-12 12:33 PM 1142.069 1142.290 1142.069 1142.120
3 2007-04-12 3:24 PM 1142.240 1143.140 1142.240 1143.140
4 2008-04-12 5:32 PM 1143.350 1143.589 1143.350 1143.589
谢谢!
【问题讨论】:
举一个 csv 的例子会有所帮助。也许是前 10 行之类的。 顺便说一句,日期格式为 yyyy-mm-dd,时间格式为:上午 9:31 或下午 3:31。 【参考方案1】:在这里,在您的情况下,“时间”是 AM/PM 格式,需要更多时间来解析。
您可以添加 format 以提高 to_datetime() 方法的速度。
data0=pd.read_csv('filename.csv')
# %Y - year including the century
# %m - month (01 to 12)
# %d - day of the month (01 to 31)
data0['Date']=pd.to_datetime(data0['Date'], format="%Y/%m/%d")
# %I - hour, using a -hour clock (01 to 12)
# %M - minute
# %p - either am or pm according to the given time value
# data0['Time']=pd.to_datetime(data0['Time'], format="%I:%M %p") -> around 1 sec
data0['Time']=pd.datetools.to_time(data0['Time'], format="%I:%M %p")
更多方法信息:Pandas Tools
更多格式选项请查看 - datetime format directives。
对于 500K 行,它在我的系统中将速度从大约 60 秒 -> 0.01 秒提高了。
你也可以使用:
# Combine date & time directly from string format
pd.Timestamp(data0['Date'][0] + " " + data0['Time'][0])
【讨论】:
这对我有很大帮助。以上是关于超大CSV文件如何最快速度解析的主要内容,如果未能解决你的问题,请参考以下文章
读取 .csv 文件时在 Python 中解析日期的最快方法是啥?
Snapde和ExcelPowerPivotWPS打开超大CSV文件性能比较