Python中的高性能模糊字符串比较,使用Levenshtein或difflib
作者:互联网
我正在进行临床信息规范化(拼写检查),其中我检查每个给定的单词对900,000字的医学词典.我更关注时间复杂度/性能.
我想做模糊字符串比较,但我不确定使用哪个库.
选项1:
import Levenshtein
Levenshtein.ratio('hello world', 'hello')
Result: 0.625
选项2:
import difflib
difflib.SequenceMatcher(None, 'hello world', 'hello').ratio()
Result: 0.625
在这个例子中,两者给出相同的答案.在这种情况下,你认为两者都表现相似吗?
解决方法:
如果您对Levenshtein和Difflib相似性的快速视觉比较感兴趣,我计算了约230万本书籍:
import codecs, difflib, Levenshtein, distance
with codecs.open("titles.tsv","r","utf-8") as f:
title_list = f.read().split("\n")[:-1]
for row in title_list:
sr = row.lower().split("\t")
diffl = difflib.SequenceMatcher(None, sr[3], sr[4]).ratio()
lev = Levenshtein.ratio(sr[3], sr[4])
sor = 1 - distance.sorensen(sr[3], sr[4])
jac = 1 - distance.jaccard(sr[3], sr[4])
print diffl, lev, sor, jac
然后我用R绘制结果:
严格来说,我也比较了Difflib,Levenshtein,Sørensen和Jaccard相似度值:
library(ggplot2)
require(GGally)
difflib <- read.table("similarity_measures.txt", sep = " ")
colnames(difflib) <- c("difflib", "levenshtein", "sorensen", "jaccard")
ggpairs(difflib)
结果:
Difflib / Levenshtein的相似性确实非常有趣.
2018年编辑:如果你正在努力识别相似的字符串,你也可以查看minhashing – 这是一个great overview here.Minhashing在线性时间内找到大文本集合中的相似性是惊人的.我的实验室整理了一个应用程序,使用minhashing检测并可视化文本重用:https://github.com/YaleDHLab/intertext
标签:difflib,string-matching,python,levenshtein-distance 来源: https://codeday.me/bug/20190918/1810430.html