编程语言
首页 > 编程语言> > Python中的模糊字符串匹配

Python中的模糊字符串匹配

作者:互联网

我有两个超过一百万个名称的列表,命名约定略有不同.这里的目标是匹配那些相似的记录,具有95%置信度的逻辑.

我知道有一些我可以利用的库,比如Python中的FuzzyWuzzy模块.

然而,就处理而言,似乎将占用太多资源,将1个列表中的每个字符串与另一个列表进行比较,在这种情况下,似乎需要100万乘以另外的百万次迭代次数.

这个问题还有其他更有效的方法吗?

更新:

所以我创建了一个bucketing函数,并应用了一个简单的规范化,即删除空格,符号并将值转换为小写等…

for n in list(dftest['YM'].unique()):
    n = str(n)
    frame = dftest['Name'][dftest['YM'] == n]
    print len(frame)
    print n
    for names in tqdm(frame):
            closest = process.extractOne(names,frame)

通过使用pythons pandas,将数据加载到按年分组的较小桶中,然后使用FuzzyWuzzy模块,process.extractOne用于获得最佳匹配.

结果仍然有点令人失望.在测试期间,上面的代码用于仅包含5千个名称的测试数据框,并且占用将近一个小时.

测试数据被拆分.

>姓名
>出生日期的年月

我正在用他们的YM在同一桶中的桶进行比较.

问题可能是因为我使用的FuzzyWuzzy模块?感谢任何帮助.

解决方法:

这里有几种级别的优化可以将此问题从O(n ^ 2)转换为较小的时间复杂度.

>预处理:在第一遍中对列表进行排序,为每个字符串创建一个输出映射,它们对映射的键可以是规范化字符串.
规范化可能包括:

>小写转换,
>没有空格,删除特殊字符,
>如果可能,将unicode转换为ascii等价物,使用unicodedata.normalizeunidecode模块)

这将导致“Andrew H Smith”,“andrew h.smith”,“ándréwh.smith”生成相同的密钥“andrewhsmith”,并将您的百万个名称集减少到一组较小的唯一/类似分组名称.

您可以使用此utlity method来规范化您的字符串(但不包括unicode部分):

def process_str_for_similarity_cmp(input_str, normalized=False, ignore_list=[]):
    """ Processes string for similarity comparisons , cleans special characters and extra whitespaces
        if normalized is True and removes the substrings which are in ignore_list)
    Args:
        input_str (str) : input string to be processed
        normalized (bool) : if True , method removes special characters and extra whitespace from string,
                            and converts to lowercase
        ignore_list (list) : the substrings which need to be removed from the input string
    Returns:
       str : returns processed string
    """
    for ignore_str in ignore_list:
        input_str = re.sub(r'{0}'.format(ignore_str), "", input_str, flags=re.IGNORECASE)

    if normalized is True:
        input_str = input_str.strip().lower()
        #clean special chars and extra whitespace
        input_str = re.sub("\W", "", input_str).strip()

    return input_str

>现在类似的字符串已经存在于同一个存储桶中,如果它们的规范化键相同.
>为了进一步比较,您只需要比较密钥,而不是名称.例如
andrewhsmith和andrewhsmeeth,因为这种相似性
除了规范化之外,名称将需要模糊字符串匹配
比较完成上面.
> Bucketing:你真的需要比较5个字符的密钥和9个字符的密钥,看看它是否匹配95%?你不可以.
因此,您可以创建匹配字符串的存储桶.例如5个字符名称将与4-6个字符名称匹配,6个字符名称与5-7个字符等匹配.对于大多数实际匹配,n个字符键的n 1,n-1字符限制是一个相当好的桶.
>开始匹配:大多数名称的变体将以标准化格式具有相同的第一个字符(例如Andrew H Smith,ándréwh.smith和Andrew H. Smeeth分别生成密钥andrewhsmith,andrewhsmith和andrewhsmeeth.
它们通常在第一个字符中没有区别,因此您可以对以#开头的键进行匹配,以及以a开头的其他键,并且属于长度桶.这将大大减少您的匹配时间.无需将关键的andrewhsmith与bndrewhsmith匹配,因为这样的名字变体与第一个字母很少存在.

然后你可以使用这个method(或FuzzyWuzzy模块)的行来找到字符串相似度百分比,你可以排除jaro_winkler或difflib中的一个以优化你的速度和结果质量:

def find_string_similarity(first_str, second_str, normalized=False, ignore_list=[]):
    """ Calculates matching ratio between two strings
    Args:
        first_str (str) : First String
        second_str (str) : Second String
        normalized (bool) : if True ,method removes special characters and extra whitespace
                            from strings then calculates matching ratio
        ignore_list (list) : list has some characters which has to be substituted with "" in string
    Returns:
       Float Value : Returns a matching ratio between 1.0 ( most matching ) and 0.0 ( not matching )
                    using difflib's SequenceMatcher and and jellyfish's jaro_winkler algorithms with
                    equal weightage to each
    Examples:
        >>> find_string_similarity("hello world","Hello,World!",normalized=True)
        1.0
        >>> find_string_similarity("entrepreneurship","entreprenaurship")
        0.95625
        >>> find_string_similarity("Taj-Mahal","The Taj Mahal",normalized= True,ignore_list=["the","of"])
        1.0
    """
    first_str = process_str_for_similarity_cmp(first_str, normalized=normalized, ignore_list=ignore_list)
    second_str = process_str_for_similarity_cmp(second_str, normalized=normalized, ignore_list=ignore_list)
    match_ratio = (difflib.SequenceMatcher(None, first_str, second_str).ratio() + jellyfish.jaro_winkler(unicode(first_str), unicode(second_str)))/2.0
    return match_ratio

标签:python,algorithm,fuzzy-search,fuzzywuzzy
来源: https://codeday.me/bug/20191003/1851059.html