Pandas 2.0正式版发布: Pandas 1.5,Polars,Pandas 2.0 速度对比测试
Posted deephub
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Pandas 2.0正式版发布: Pandas 1.5,Polars,Pandas 2.0 速度对比测试相关的知识,希望对你有一定的参考价值。
Pandas 2.0正式版在4月3日已经发布了,以后我们pip install默认安装的就是2.0版了,Polars 是最近比较火的一个DataFrame 库,最近在kaggle上经常使用,所以这里我们将对比下 Pandas 1.5,Polars,Pandas 2.0 。看看在速度上 Pandas 2.0有没有优势。
Polars
Polars 是一个 Rust 和 Python 中的快速多线程 DataFrame 库/内存查询引擎。它使用 Apache Arrow作为内存模型在 Rust 中实现。它在2021年3月发布。
Polars的一些主要特点如下:
- 快速:Polars在处理大型数据集时非常高效。它使用Rust编写,利用Rust的内存安全和零成本抽象,可以在不牺牲性能的情况下处理大规模数据集。
- 可扩展:Polars支持并行化和分布式计算,因此可以处理非常大的数据集。它还具有可插拔的数据源接口,可以从不同的数据源读取和写入数据。
- 易于使用:Polars具有类似于Pandas的API,因此熟悉Pandas的用户可以很容易地开始使用Polars。它还具有完整的文档和示例,可帮助用户快速入门。
- 支持多种数据类型:Polars支持许多常见的数据类型,包括数字,布尔值,字符串和日期时间。它还支持类似于DataFrame的表格结构,可以进行列操作和过滤等操作。
Polars的一个最大好处是,它不仅有Python的包,Nodejs,Rust等也可以方便的进行继承使用,并且经过各方的验证,它的确要比Pandas1.x快很多。
Pandas 2.0
在之前的文章我们已经介绍了 Pandas 2.0,“它要快得多”(还不是稳定版本)。并且它也有了Apache Arrow的后端。
现在,他的正式版发布了,对于Pandas 2.0 的更新请看官网说明:
https://pandas.pydata.org/docs/dev/whatsnew/v2.0.0.html
下面我们就要开始进行简单的测试了,我们要测试这3个库的性能,所以需要使用一些比较大型的数据集。这里我们使用纽约出租车数据集。
简单ETL
从Data Talks Club下载csv数据集,NYC.gov下载parquet数据集。
!wget https://github.com/DataTalksClub/nyc-tlc-data/releases/download/yellow/yellow_tripdata_2021-01.csv.gz
!wget https://d37ci6vzurychx.cloudfront.net/trip-data/yellow_tripdata_2021-01.parquet
还需要纽约市区域。
!wget https://s3.amazonaws.com/nyc-tlc/misc/taxi+_zone_lookup.csv
1、E 提取
把csv文件和parquet文件转换为DF,测试提取的性能。
下面是pandas的
def pd_read_csv(path, engine_pd,):
"""
Converting csv file into Pandas dataframe
"""
df= pd.read_csv(path, engine=engine_pd)
return df
def pd_read_parquet(path, ):
"""
Converting parquet file into Pandas dataframe
"""
df= pd.read_parquet(path,)
return df
这里是Polars的
def pl_read_csv(path, ):
"""
Converting csv file into Pandas dataframe
"""
df= pl.read_csv(path,)
return df
def pl_read_parquet(path, ):
"""
Converting parquet file into Pandas dataframe
"""
df= pl.read_parquet(path,)
return df
读取代码如下:
path1="yellow_tripdata_2021-01.csv.gz"
df_trips= pd_read_csv(path1, engine_pd)
path2="taxi+_zone_lookup.csv"
df_zone= pd_read_csv(path2, engine_pd)
path1="yellow_tripdata_2021-01.parquet"
df_trips= pd_read_parquet(path1,)
path2 = "taxi+_zone_lookup.csv"
df_zone = pd_read_csv(path2, engine_pd)
2、T 转换
为了测试,我们通过Pickup Id获取trip_distance的均值;
过滤查询性能所以获取以“East”结尾的区域。
Pandas代码:
def mean_test_speed_pd(df_pd):
"""
Getting Mean per PULocationID
"""
df_pd = df_pd[['PULocationID', 'trip_distance']]
df_pd["PULocationID_column"] = df_pd[['PULocationID']].astype(int)
df_pd=df_pd.groupby('PULocationID').mean()
return df_pd
def endwith_test_speed_pd(df_pd):
"""
Only getting Zones that end with East
"""
df_pd = df_pd[df_pd.Zone.str.endswith('East')]
return df_pd
Polars
def mean_test_speed_pl(df_pl):
"""
Getting Mean per PULocationID
"""
df_pl = df_pl[['PULocationID', 'trip_distance']].groupby('PULocationID').mean()
return df_pl
def endwith_test_speed_pd(df_pl):
"""
Only getting Zones that end with East
"""
df_pl = df_pl.filter(pl.col("Zone").str.ends_with('East'))
return df_pl
3、L 加载
将最终结果加载回parquet文件,可以测试写入性能:
pandas
def loading_into_parquet(df_pd, engine):
"""
Save dataframe in parquet
"""
df_pd.to_parquet(f'yellow_tripdata_2021-01_pd_vpd.__version__.parquet',engine)
polars
def loading_into_parquet(df_pl):
"""
Save dataframe in parquet
"""
df_pl.write_parquet(f'yellow_tripdata_2021-01_pl.parquet')
4、结果
运行ETL流程后,根据每个过程的秒平均值,测试性能的最终结果如下表所示。
可以看到POLARS很棒
但是上面代码是不是有问题呢?
对,还记得我们在pandas2.0那篇文章中说过,read_csv获得Numpy数据类型,为read_parquet获得Pyarrow数据类型。而Polars中,当我们执行read_csv和read_parquet时,我们为所有列获得相同的数据类型。所以我们测试的并不准确。另外我们也没有比较比较RAM和CPU的使用情况,所以没有全方位的测试。
下面我们开始修复上面的问题,并添加RAM和CPU的使用情况,这样应该算是一个比较完善的测试了。
CPU和RAM分析
我们可以使用process.memory_info()检查每个函数之前、之后和之间的内存。而psutil.cpu_percent可以获得最近2秒内的CPU。所以就有了下面的装饰器:
import os
import psutil
def process_memory():
process = psutil.Process(os.getpid())
mem_info = process.memory_info()
return mem_info.rss
def process_cpu():
"""
Getting cpu_percent in last 2 seconds
"""
cpu_usage = psutil.cpu_percent(2)
return cpu_usage
# decorator function mem
def profile_mem(func):
def wrapper(*args, **kwargs):
mem_before = process_memory()
result = func(*args, **kwargs)
mem_after = process_memory()
print("Consumed memory: :,".format(
mem_before, mem_after, mem_after - mem_before))
return result
return wrapper
# decorator function cpu
def profile_cpu(func):
def wrapper(*args, **kwargs):
result = func(*args, **kwargs)
cpu_after = process_cpu()
print(f"Consumed cpu: cpu_after")
return result
return wrapper
装饰器调用方法如下图所示
完整测试结果
我们就直接来看结果了(每个测试都运行了三次):
parquet文件提取的新脚本,最终的时间结果与前面测试类似:
CPU结果
RAM的结果
结果难以解释,但是可以说明rust的确内存占用高😂
但是我们看到,POLARS的确还是要快一些,如果在处理时间是一个非常重要的指标的时候可以试试POLARS(但是他的CPU占用高,说明如果比较慢的CPU也不一定能获得提高,还要具体测试),如果你不想学习POLARS的语法,那么Pandas 2.0应该是速度很快的一个折中的选择了。
如果你想自己测试,完整代码在这里:
https://avoid.overfit.cn/post/73c12c85ff124f9bb7947ac4d82316b8
作者:Luís Oliveira
pandas模块
pandas模块
pandas官方文档:https://pandas.pydata.org/pandas-docs/stable/?v=20190307135750
pandas基于Numpy,可以看成是处理文本或者表格数据。pandas中有两个主要的数据结构,其中Series数据结构类似于Numpy中的一维数组,DataFrame类似于多维表格数据结构。
pandas是python数据分析的核心模块。它主要提供了五大功能:
- 支持文件存取操作,支持数据库(sql)、html、json、pickle、csv(txt、excel)、sas、stata、hdf等。
- 支持增删改查、切片、高阶函数、分组聚合等单表操作,以及和dict、list的互相转换。
- 支持多表拼接合并操作。
- 支持简单的绘图操作。
- 支持简单的统计分析操作。
一、Series数据结构
Series是一种类似于一维数组的对象,由一组数据和一组与之相关的数据标签(索引)组成。
Series比较像列表(数组)和字典的结合体
import numpy as np
import pandas as pd
df = pd.Series(0, index=['a', 'b', 'c', 'd'])
print(df)
a 0
b 0
c 0
d 0
dtype: int64
print(df.values)
print(df.index)
[0 0 0 0]
ndex([‘a‘, ‘b‘, ‘c‘, ‘d‘], dtype=‘object‘)
1.1Series支持NumPy模块的特性(下标)
详解 | 方法 |
---|---|
从ndarray创建Series | Series(arr) |
与标量运算 | df*2 |
两个Series运算 | df1+df2 |
索引 | df[0], df[[1,2,4]] |
切片 | df[0:2] |
通用函数 | np.abs(df) |
布尔值过滤 | df[df>0] |
以上是关于Pandas 2.0正式版发布: Pandas 1.5,Polars,Pandas 2.0 速度对比测试的主要内容,如果未能解决你的问题,请参考以下文章
当我们尝试将巨大的 Pandas 数据帧(40-50 百万行)转换为 Spark 2.0 数据帧时如何提高性能
Pandas 和 SQLAlchemy:使用来自 engine.begin() 的连接时,带有 SQLAlchemy 2.0 fututre=True 的 df.to_sql() 会引发错误