使用fuzzywuzzy python比较和分组字符串的嵌套循环

Posted

技术标签:

【中文标题】使用fuzzywuzzy python比较和分组字符串的嵌套循环【英文标题】:Nested loops for comparing and grouping strings using fuzzywuzzy python 【发布时间】:2021-07-14 06:45:27 【问题描述】:

我正在努力制作一个更快的代码来将相似的产品名称(列“prep”)分组到相同的“person_id”和相同的“TNVED”中。所以我的数据框示例如下所示: sample_of_dataframe

所以我在 IIN_BIN 上做了字典,这本字典的键是 TNVED。键的值也是字典,键为group_ids,用fuzzywuzzy按相似度分组。

from fuzzywuzzy import fuzz
import warnings

warnings.filterwarnings("ignore")

length = len(np.unique(df['IIN_BIN'].to_list()))   
t1 = time.time()
amount = 0
dict_main = 
df['prep']=df['prep'].fillna("")

for BIN in np.unique(df['IIN_BIN'].to_list()):
    temp_list_BIN = df[df['IIN_BIN'] == BIN]['TNVED']
    dict_pre_main = 
    
    for tnved in np.unique(temp_list_BIN):
        dict_temp = 
        j = 0
        df_1_slice = df[df['IIN_BIN'] == BIN]
        df_1_slice = df_1_slice[df['TNVED'] == tnved]
        df_1_slice.reset_index(inplace = True)
        df_1_slice.drop(['index'], axis = 1, inplace = True)

        while len(df_1_slice) != 0:
            temp_list = []
            temp_del_list = []
            temp_fuzz_list = []
            temp_df = pd.DataFrame(columns = df_1_slice.columns)
            
            for i in range(0, len(df_1_slice)):
                fuz_rate = fuzz.token_sort_ratio(
                    df_1_slice['prep'][0], df_1_slice['prep'][i])

                if fuz_rate >=90:
                    temp_del_list.append(i)
                    temp_list.append([0,i,fuz_rate])
                    temp_fuzz_list.append(fuz_rate)
                    temp_df = temp_df.append(df_1_slice.loc[i])
                    dict_temp[j] = temp_df

            df_1_slice.drop(temp_del_list, axis = 0, inplace = True)
            df_1_slice.reset_index(inplace = True)
            df_1_slice.drop('index', axis = 1, inplace = True)
            j+=1

        dict_pre_main[tnved] = dict_temp

    dict_main[BIN] = dict_pre_main
    time_gone = time.time() - t1

    if amount%60 == 0:
        print('Percentage of BINs proceeded: ', amount/length,
            '%. Time gone from start: ', time_gone, ' s.')

    amount+=1

可能有一种更快的方法可以做到这一点,因为我必须将所有这些字典解压缩到一个数据帧中,这需要我大约 1-2 天才能获得 200 万行数据帧?

t1 = time.time()
temp_list = list(df.columns)
temp_list.append('group_sorted')
concat_full = pd.DataFrame(columns = temp_list)
length = len(dict_main.keys())    
amount = 0

for key_iin in dict_main.keys():
    for key_tnved in dict_main[key_iin].keys():
        for key_group_number in dict_main[key_iin][key_tnved].keys():
            dict_main[key_iin][key_tnved][key_group_number]['group_sorted'] = key_group_number
            concat_full = concat_full.append(
                dict_main[key_iin][key_tnved][key_group_number])
        
    time_gone = time.time() - t1

    if amount%60 == 0:
        print('Percentage of BINs proceeded: ', amount/length,
            '%. Time gone from start: ', time_gone, ' s.')

    amount+=1

concat_full.to_csv('item_desc_fuzzied.csv', index = False)

可能有更快的方法吗?

【问题讨论】:

【参考方案1】:

您正在使用 Fuzzywuzzy,并且由于您的抑制警告,我假设您使用的是纯 Python 实现。您应该使用fuzzywuzzy[speedup] 或更好的性能RapidFuzz(我是作者)。在 RapidFuzz 中,从以下位置转换模糊字符串匹配是有意义的:

from fuzzywuzzy import fuzz

for i in range(0, len(df_1_slice)):
    fuz_rate = fuzz.token_sort_ratio(
        df_1_slice['prep'][0], df_1_slice['prep'][i])

    if fuz_rate >=90:
        temp_del_list.append(i)
        temp_list.append([0,i,fuz_rate])
        temp_fuzz_list.append(fuz_rate)
        temp_df = temp_df.append(df_1_slice.loc[i])
        dict_temp[j] = temp_df

类似

from rapidfuzz import process, fuzz

matches = process.extract(
        df_1_slice['prep'][0],
        df_1_slice['prep'],
        scorer=fuzz.token_sort_ratio,
        limit=None,
        score_cutoff=90)

for choice, score, index in matches:
        temp_del_list.append(index)
        temp_list.append([0, index, score])
        temp_fuzz_list.append(choice)
        temp_df = temp_df.append(df_1_slice.loc[index])
        dict_temp[j] = temp_df

process.extract的用法有以下优点:

df_1_slice['prep'][0] 只被预处理一次 更少的函数调用,因为它可以在 C/C++ 中迭代 DataSeries(Python 中的函数调用很慢) 可以通过更多方式预处理查询,例如只对查询中的单词进行一次排序

请注意,此实现尝试在循环之后保持最终结果相似,并且可能只是解决方案的一部分。您对 Pandas 的使用可能会有所改进,但我自己对 Pandas 不是很熟悉。我注意到的一件事是某些变量似乎从未被使用过。这方面的一个例子是temp_fuzz_list。如果它们真的没有被使用,删除它们是有意义的。

【讨论】:

以上是关于使用fuzzywuzzy python比较和分组字符串的嵌套循环的主要内容,如果未能解决你的问题,请参考以下文章

Python对数据集中的相似记录(字符串)进行分组

pandas 数据框中的匹配(fuzzywuzzy)

FuzzyWuzzy的fuzz.ratio没有达到预期的效果。

模糊字符串匹配:FuzzyWuzzy

使用fuzzywuzzy删除数据帧上的所有不同字符串

Python中实现模糊匹配的魔法库:FuzzyWuzzy