Python中根据文件名和后缀合并csv文件

Posted

技术标签:

【中文标题】Python中根据文件名和后缀合并csv文件【英文标题】:Merge csv files based on file names and suffix in Python 【发布时间】:2021-10-24 18:10:48 【问题描述】:

第一次发帖,这里对 Python 还算陌生。我收集了 +1,7000 个 csv 文件,每个文件有 2 列。每个文件中的行数和标签都相同。这些文件以特定格式命名。例如:

Species_1_OrderA_1.csv Species_1_OrderA_2​​.csv Species_1_OrderA_3.csv Species_10_OrderB_1.csv Species_10_OrderB_2.csv

每个导入的数据框的格式如下:

               TreeID  Species_1_OrderA_2
0       Bu2_1201_1992                       0
1       Bu3_1201_1998                       0
2       Bu4_1201_2000                       0
3       Bu5_1201_2002                       0
4       Bu6_1201_2004                       0
..                ...                     ...
307  Fi141_16101_2004                       0
308  Fi142_16101_2006                       0
309  Fi143_16101_2008                       0
310  Fi144_16101_2010                       0
311  Fi147_16101_2015                       0

我想根据第一列加入对应于同一物种的文件。所以,最后,我会得到文件 Species_1_OrderA.csv 和 Species_10_OrderB.csv。请注意,并非所有物种都有相同数量的文件。

这是我迄今为止尝试过的。

import os
import glob
import pandas as pd

# Importing csv files from directory
path = '.'
extension = 'csv'
os.chdir(path)
files = glob.glob('*.'.format(extension))

# Create a dictionary to loop through each file to read its contents and create a dataframe
file_dict = 

for file in files:
    key = file
    df = pd.read_csv(file)

    file_dict[key] = df

# Extract the name of each dataframe, convert to a list and extract the relevant
# information (before the 3rd underscore). Compare each of these values to the next and
# if they are the same, append them to a list. This list (in my head, at least) will help
# me merge them using pandas.concat

keys_list = list(file_dict.keys())
group = ''

for line in keys_list:
    type = "_".join(line.split("_")[:3])
    for i in range(len(type) - 1):
        if type[i] == type[i+1]:
            group.append(line[keys_list])
            print(group)

但是,最后一点甚至都不起作用,在这一点上,我不确定这是处理我的问题的最佳方法。任何有关如何解决此问题的指示将不胜感激。

--- 编辑: 这是每个物种文件的预期输出。理想情况下,我会删除其中包含零的行,但这可以使用 awk 轻松完成。

TreeID,Species_1_OrderA_0,Species_1_OrderA_1,Species_1_OrderA_2
Bu2_1201_1992,0,0,0
Bu3_1201_1998,0,0,0
Bu4_1201_2000,0,0,0
Bu5_1201_2002,0,0,0
Bu6_1201_2004,0,0,0
Bu7_1201_2006,0,0,0
Bu8_1201_2008,0,0,0
Bu9_1201_2010,0,0,0
Bu10_1201_2012,0,0,0
Bu11_1201_2014,0,0,0
Bu14_1201_2016,0,0,0
Bu16_1201_2018,0,0,0
Bu18_3103_1989,0,0,0
Bu22_3103_1999,0,0,0
Bu23_3103_2001,0,0,0
Bu24_3103_2003,0,0,0
...
Fi141_16101_2004,0,0,10
Fi142_16101_2006,0,4,0
Fi143_16101_2008,0,0,0
Fi144_16101_2010,2,0,0
Fi147_16101_2015,0,7,0
``

【问题讨论】:

您能否提供一个在两个文件之间进行此操作的预期输出示例? 每个文件中的列名是否完全相同,即“Tree ID”和“Species_1_OrderA_2​​”? @SteeleFarnsworth 我用预期的输出编辑了问题 @not_speshal 第一列在每个文件中的名称都相同,但第二列包含文件名,除了 .csv 部分。 【参考方案1】:

试试这样:

import os
import pandas as pd

path = "C:/Users/username"
files = [file for file in os.listdir(path) if file.endswith(".csv")]

dfs = dict()
for file in files:
    #everything before the final _ is the species name
    species = file.rsplit("_", maxsplit=1)[0]

    #read the csv to a dataframe
    df = pd.read_csv(os.path.join(path, file))
    
    #if you don't have a df for a species, create a new key
    if species not in dfs:
        dfs[species] = df
    #else, merge current df to existing df on the TreeID
    else:
        dfs[species] = pd.merge(dfs[species], df, on="TreeID", how="outer")

#write all dfs to their own csv files
for key in dfs:
    dfs[key].to_csv(f"key.csv")

【讨论】:

这非常有效。谢谢你。我有一个后续问题。这将创建一个带有索引的附加列。我想删除这个。 pandas.concat 有 index 参数可以做到这一点,但我找不到 pandas.merge 的等价物。 你的意思是你不想要 csv 中的索引吗?如果是这样,您可以将最后一行更改为dfs[key].to_csv(f"key.csv", index=False) 哦,明白了!这更有意义。导入时数据框必须具有索引。非常感谢!【参考方案2】:

如果您的目标是将每个物种顺序的所有 csv 连接成一个合并的 csv,这是一种方法。我没有测试它,所以可能会有一些错误。这个想法是首先使用 glob,就像你正在做的那样,制作一个 file_paths 的字典,以便将相同物种顺序的所有 file_paths 组合在一起。然后对于每个物种顺序将所有数据读入内存中的单个表中,然后写入合并文件。

import pandas as pd
import glob
   
#Create a dictionary keyed by species_order, valued by a list of files
#i.e. file_paths_by_species_order['Species_10_OrderB'] = ['Species_10_OrderB_1.csv', 'Species_10_OrderB_2.csv']
   
file_paths_by_species_order = 
   
for file_path in glob.glob('*.csv'):
    species_order = file_path.split("_")[:3]
    if species_order not in file_paths_by_species_order:
        file_paths_by_species_order[species_order] = [file_path]
    else:   
        file_paths_by_species_order[species_order].append(file_path)
   
#For each species_order, concat all files and save the info into a new csv 
for species_order,file_paths in file_paths_by_species_order.items():
    df = pd.concat(pd.read_csv(file_path) for file_path in file_paths)
    df.to_csv('consolidated_.csv'.format(species_order))

确实可以进行一些改进,例如使用 collections.defaultdict 并一次将一个文件写入合并文件,而不是将它们全部读入内存

【讨论】:

感谢您的宝贵时间。这导致了一个错误,但我将使用它作为其他评论者的替代方法的基础。再次,非常感谢。

以上是关于Python中根据文件名和后缀合并csv文件的主要内容,如果未能解决你的问题,请参考以下文章

使用Python Dictionary在Python中合并CSV文件

使用 Python 字典在 Python 中合并 CSV 文件

在 Python 中将 CSV 与不同的列合并

在python中合并CSV文件[重复]

根据第一列中的数据合并两个 CSV 文件

如何使用 Python Pandas 合并多个 CSV 文件