python-改进循环-尝试比较2个字典列表
作者:互联网
我将尽力使自己更清晰:我有5万条tweet,我想继续进行文本挖掘,并且我想改善自己的代码.数据如下(sample_data).
我有兴趣对我清理和标记化过的单词(它们是twToken键的值)进行词法化
sample_data = [{'twAuthor': 'Jean Lassalle',
'twMedium': 'iPhone',
'nFav': None,
'nRT': '33',
'isRT': True,
'twText': ' RT @ColPeguyVauvil : @jeanlassalle "allez aux bouts de vos rêves" ',
'twParty': 'Résistons!',
'cleanText': ' rt colpeguyvauvil jeanlassalle allez aux bouts de vos rêves ',
'twToken': ['colpeguyvauvil', 'jeanlassalle', 'allez', 'bouts', 'rêves']},
{'twAuthor': 'Jean-Luc Mélenchon',
'twMedium': 'Twitter Web Client',
'nFav': '806',
'nRT': '375',
'isRT': False,
'twText': ' (2/2) Ils préfèrent créer une nouvelle majorité cohérente plutôt que les alliances à géométrie variable opportunistes de leur direction. ',
'twParty': 'La France Insoumise',
'cleanText': ' 2 2 ils préfèrent créer une nouvelle majorité cohérente plutôt que les alliances à géométrie variable opportunistes de leur direction ',
'twToken': ['2', '2', 'préfèrent', 'créer', 'nouvelle', 'majorité', 'cohérente', 'plutôt', 'alliances', 'géométrie', 'variable', 'opportunistes', 'direction']},
{'twAuthor': 'Nathalie Arthaud',
'twMedium': 'Android',
'nFav': '37',
'nRT': '24',
'isRT': False,
'twText': ' #10mai Commemoration fin de l esclavage. Reste à supprimer l esclavage salarial defendu par #Macron et Hollande ',
'twParty': 'Lutte Ouvrière',
'cleanText': ' 10mai commemoration fin de l esclavage reste à supprimer l esclavage salarial defendu par macron et hollande ',
'twToken': ['10mai', 'commemoration', 'fin', 'esclavage', 'reste', 'supprimer', 'esclavage', 'salarial', 'defendu', 'macron', 'hollande']
}]
但是,Python中没有可靠的法语lemmatizer.因此,我使用了一些资源来拥有自己的法语单词lemmatizer词典.该字典看起来像这样:
sample_lemmas = [{"ortho":"rêves","lemme":"rêve","cgram":"NOM"},
{"ortho":"opportunistes","lemme":"opportuniste","cgram":"ADJ"},
{"ortho":"préfèrent","lemme":"préférer","cgram":"VER"},
{"ortho":"nouvelle","lemme":"nouveau","cgram":"ADJ"},
{"ortho":"allez","lemme":"aller","cgram":"VER"},
{"ortho":"défendu","lemme":"défendre","cgram":"VER"}]
因此,ortho是单词的书面形式(例如,已处理),lemmeis是单词的词素化形式(例如,过程),而cgram是单词的语法类别(例如,动词的VER).
所以我想做的是为每个推文创建一个twLemmas密钥,这是从twToken列表派生的引理的列表.因此,我遍历了sample_data中的每个tweet,然后遍历了twToken中的每个标记,看看该标记是否存在于我的引理字典sample_lemmas中,如果存在,我从sample_lemmas字典中检索引理并将其添加到列表中.每个twLemmas键都可以输入.如果没有,我只是将单词添加到列表中.
我的代码如下:
list_of_ortho = [] #List of words used to compare if a token doesn't exist in my lemmas dictionary
for wordDict in sample_lemmas: #This loop feeds this list with each word
list_of_ortho.append(wordDict["ortho"])
for elemList in sample_data: #Here I iterate over each tweet in my data
list_of_lemmas = [] #This is the temporary list which will be the value to each twLemmas key
for token in elemList["twToken"]: #Here, I iterate over each token/word of a tweet
for wordDict in sample_lemmas:
if token == wordDict["ortho"]:
list_of_lemmas.append(wordDict["lemme"])
if token not in list_of_ortho: #And this is to add a word to my list if it doesn't exist in my lemmas dictionary
list_of_lemmas.append(token)
elemList["lemmas"] = list_of_lemmas
sample_data
循环工作正常,但是大约需要4个小时才能完成.现在,我知道我既不是程序员,也不是Python专家,而且我知道无论完成什么工作都需要时间.但是,这就是为什么我想问你,是否有人对我如何改进代码有更好的想法?
如果有人能抽出时间来理解我的代码并为我提供帮助,谢谢.我希望我足够清楚(对不起,英语不是我的母语).
解决方法:
使用将正射影像映射到词素的字典:
ortho_to_lemme = {word_dict["ortho"]: word_dict["lemme"] for word_dict in sample_lemmas}
for tweet in sample_data:
tweet["twLemmas"] = [
ortho_to_lemme.get(token, token) for token in tweet["twToken"]
]
标签:dictionary,for-loop,lemmatization,python 来源: https://codeday.me/bug/20191108/2005373.html