Python读csv文件去掉一列后再写入新的文件

Posted 卡路西法

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python读csv文件去掉一列后再写入新的文件相关的知识,希望对你有一定的参考价值。

用了两种方式解决该问题,都是网上现有的解决方案。

场景说明:

有一个数据文件,以文本方式保存,现在有三列user_id,plan_id,mobile_id。目标是得到新文件只有mobile_id,plan_id。

解决方案

方案一:用python的打开文件写文件的方式直接撸一遍数据,for循环内处理数据并写入到新文件。

代码如下:

def readwrite1( input_file,output_file):
    f = open(input_file, r)
    out = open(output_file,w)
    print (f)
    for line in f.readlines():
        a = line.split(",")
        x=a[0] + "," + a[1]+"\n"
        out.writelines(x)
    f.close()
    out.close()

方案二:用 pandas 读数据到 DataFrame 再做数据分割,直接用 DataFrame 的写入功能写到新文件

代码如下:

def readwrite2(input_file,output_file):
    date_1=pd.read_csv(input_file,header=0,sep=,)
    date_1[[mobile, plan_id]].to_csv(output_file, sep=,, header=True,index=False)

 

从代码上看,pandas逻辑更清晰。

 

下面看下执行的效率吧!

def getRunTimes( fun ,input_file,output_file):
    begin_time=int(round(time.time() * 1000))
    fun(input_file,output_file)
    end_time=int(round(time.time() * 1000))
    print("读写运行时间:",(end_time-begin_time),"ms")

getRunTimes(readwrite1,input_file,output_file)  #直接撸数据
getRunTimes(readwrite2,input_file,output_file1) #使用dataframe读写数据

读写运行时间: 976 ms
读写运行时间: 777 ms

input_file 大概有27万的数据,dataframe的效率比for循环效率还是要快一点的,如果数据量更大些,效果是否更明显呢?

下面试下增加input_file记录的数量试试,有如下结果

input_file
readwrite1
readwrite2

27W

976 777

55W

1989 1509

110W

4312 3158

 

 

 

 

 

 

从上面测试结果来看,dataframe的效率提高大约30%左右。

 



以上是关于Python读csv文件去掉一列后再写入新的文件的主要内容,如果未能解决你的问题,请参考以下文章

用java怎么才能在csv文件指定位置写入新的数据,csv原始数据保留。

python删除列后行变多了

python 读取多个csv文件中某一列,并生成一个新csv文件

Python 怎么在csv文件中加入一列数据

Python 怎么在csv文件中加入一列数据

将数组写入csv python(一列)