与其他评论一样,我不确定这样做是否有意义,但是我认为这是一种可以满足您需求的解决方案。它的效率非常低-O(n 2),其中n是您列表中的单词数-
但我不确定有更好的方法:
data = [['hoose', 200], ["Bananphone", 10], ['House', 200], ["Bonerphone", 10], ['Uniquevalue', 777]]already_merged = []for word, score in data: added_to_existing = False for merged in already_merged: for potentially_similar in merged[0]: if levenshtein(word, potentially_similar) < 5: merged[0].add(word) merged[1] += score added_to_existing = True break if added_to_existing: break if not added_to_existing: already_merged.append([set([word]),score])print already_merged
输出为:
[[set(['House', 'hoose']), 400], [set(['Bonerphone', 'Bananphone']), 20], [set(['Uniquevalue']), 777]]
这种方法的明显问题之一是,您正在考虑的单词可能已经与您已经考虑过的许多不同单词集足够接近,但是此代码会将其汇总到找到的第一个单词中。



