再见,CSV!这种文件格式快150倍!

Posted 大数据v

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了再见,CSV!这种文件格式快150倍!相关的知识,希望对你有一定的参考价值。


导读:本文介绍了一种运行速度大大提高的数据格式。

作者:  Dario Radečić

翻译:王可汗,校对:张达敏

来源:数据派THU(ID:DatapiTHU)

csv会浪费你的时间、磁盘空间和金钱。是时候结束了。

csv并不是唯一的数据存储格式,甚至可能是你最后才考虑使用的格式。如果你不打算手动编辑数据,使用csv是在浪费时间和金钱。

想象一下——你收集了大量的数据并将它们存储在云端。你没有对文件格式做太多的研究,所以选择了csv。你的开销会爆炸!如果不追求更多,一个简单的调整可以减少一半开销。这个调整就是——你已经猜到了——选择一种不同的文件格式。

01 Feather到底是什么?

简单地说,它是一种用于存储数据帧(DataFrame)的数据格式(想想Pandas)。它围绕一个简单的前提设计——尽可能高效地将数据帧输入和输出内存。它最初是为Python和R之间的快速通信而设计的,但你并不局限于这个用例。

不过Feather并不只能用与Python和R,你可以通过任何一个主流编程语言使用Feather文件。

这种数据格式不是为长期存储而设计的。最初的目的是R和Python程序之间的快速交换,以及一般的短期存储。没有人能阻止你将Feather文件转储到磁盘,并将它们保存多年,但有比Feather更有效的格式。

在Python中,你可以通过Pandas或专用库使用Feather。本文将向你展示如何使用这两种方法。首先你将需要安装feather-format来继续。以下是代码:

# Pip
pip install feather-format

# Anaconda
conda install -c conda-forge feather-format

有了这些你就可以开始使用Feather了。打开JupyterLab或任何其他数据科学IDE,下一节将涵盖Feather的基础知识。

02 如何在Python中使用Feather?

让我们从导入库和创建相对较大的数据集开始。你将用到Feature,Numpy和Pandas。该数据集有一千万*5个随机数:

import feather
import numpy as np
import pandas as pd

np.random.seed=42
df_size = 10_000_000

df = pd.DataFrame ({
‘a’: np.random.rand (df_size),
‘b’: np.random.rand (df_size),
‘c’: np.random.rand (df_size),
‘d’: np.random.rand (df_size),
‘e’: np.random.rand (df_size)
})
df.head ()

数据集大概长这样:

接着把它保存到本地。你可以调用Pandas使用下面的命令来保存DataFrame到Feature格式:

df.to_feather('1M.feather')

下面是如何用Feather库进行同样的操作:

feather.write_dataframe(df, '1M.feather')

差别不大。这两个文件现在都保存在本地。你可以在Pandas或专用库阅读它们。下面是Pandas的语法:

df = pd.read_feather('1M.feather')

使用Feather库:

df = feather.read_dataframe('1M.feather')

以上涵盖了你需要知道的东西。下面的部分将介绍与CSV文件格式在文件大小、读取和写入时间上的比较。

03 CSV vs. Feather,你应该使用哪一个?

如果不需要动态更改数据,答案很简单——用Feather。不过,让我们先做一些测试。

下面的图表显示了把上一节的DataFrame保存到本地所需的时间:

这是一个巨大的差异——原生Feather大约比CSV快150倍。使用Pandas来处理Feather文件并不会有太大的影响,但是与CSV相比,Feather在速度上的提高是显著的。

接下来,让我们比较读取时间——读取相同数据集的不同格式需要多长时间:

CSV又一次被完爆。和Feather相比,CSV的读取速度更慢,占用更多的磁盘空间,但具体是多少呢?

这就是下一个可视化的答案:

正如你所见,CSV文件占用的空间是Feather文件的两倍多。

如果你每天存储几个G的数据, 选择正确的文件格式是至关重要的。Feature在这方面完胜了CSV。如果你需要更多的压缩,你应该尝试Parquet。我发现这是迄今为止最好的格式。

总之,从to_csv()到to_feather(),从read_csv()到read_feather()可以节省大量时间和磁盘空间。考虑一下在下一个项目中试试Feather吧。

原文标题:

Stop Using CSVs for Storage — This File Format Is 150 Times Faster

原文链接:

https://towardsdatascience.com/stop-using-csvs-for-storage-this-file-format-is-150-times-faster-158bd322074e

关于译者:王可汗,清华大学机械工程系直博生在读。曾经有着物理专业的知识背景,研究生期间对数据科学产生浓厚兴趣,对机器学习AI充满好奇。期待着在科研道路上,人工智能与机械工程、计算物理碰撞出别样的火花。希望结交朋友分享更多数据科学的故事,用数据科学的思维看待世界。

延伸阅读👇

《利用Python进行数据分析》(原书第2版)

干货直达👇

更多精彩👇

在公众号对话框输入以下关键词

查看更多优质内容!

读书 | 书单 | 干货 讲明白 | 神操作 | 手把手

大数据 | 云计算 | 数据库 | Python | 爬虫 | 可视化

AI | 人工智能 | 机器学习 | 深度学习 | NLP

5G | 中台 | 用户画像 数学 | 算法 数字孪生

据统计,99%的大咖都关注了这个公众号

👇

以上是关于再见,CSV!这种文件格式快150倍!的主要内容,如果未能解决你的问题,请参考以下文章

再见 CSV,速度提升 150 倍!

处理奇怪格式的csv文件

Protobuf有没有比JSON快5倍?用代码来击破pb性能神话

php使用ajax导出CSV或者EXCEl(thinkphp)方法

Protobuf有没有比JSON快5倍?用代码来击破pb性能神话

导入CSV文件乱码