使用nltk和scikit-learn从文本中为标签云挑选最相关的单词
作者:互联网
我想从文本中获取最相关的单词以准备标签云.
我使用scikit-learn包中的CountVectoriser:
cv = CountVectorizer(min_df=1, charset_error="ignore",
stop_words="english", max_features=200)
这很好,因为它给了我的话和频率:
counts = cv.fit_transform([text]).toarray().ravel()
words = np.array(cv.get_feature_names())
我可以过滤非频繁的单词:
words = words[counts > 1]
counts = counts[counts > 1]
以及单词,即数字:
words = words[np.array(map(lambda x: x.isalpha(), words))]
counts = counts[np.array(map(lambda x: x.isalpha(), words))]
但它仍然不完美……
我的问题是:
>如何过滤掉动词?
>如何完全去除词干以摆脱不同形式的同一个词?
>如何调用CountVectoriser来过滤掉两个字母的单词?
还请注意:
>我对nltk很好,但回答“你应该尝试nltk”不是答案,请给我一个代码.
>我不想使用贝叶斯分类器和其他需要训练模型的技术.我没有时间,我没有训练分类器的例子.
>语言是英语
解决方法:
1-如何过滤掉动词?
取决于您要支持的语言.你需要一个好的句子单词标记器对和一个词性标记器.所有这三个组件通常都是使用机器学习模型实现的(尽管您可以使用基于规则的句子和单词标记器获得良好的结果).如果你只想支持英语,你可以在nltk找到预先训练过的模型,但我不是专家,你必须阅读文档和教程:)
一旦你知道如何将文本分成句子和单词,并识别和删除动词,你可以将其包装为python函数并将其传递给CountVectorizer构造函数,请参阅下文.
2-如何完全去除词干以消除同一个词的不同形式?
您必须将可调用的自定义标记生成器python传递给CountVectorizer构造函数,以同时处理标记提取,词干化和可选的过滤.这在documentation中有解释.
对于词干本身,它取决于你想要支持的语言,但你可以从http://nltk.org/api/nltk.stem.html开始
有一个拉动请求,使插入一个词干分析器更自然:
https://github.com/scikit-learn/scikit-learn/pull/1537
3-如何调用CountVectorizer过滤掉两个字母的单词?
您可以更改用于标记化的默认正则表达式:
>>> from sklearn.feature_extraction.text import CountVectorizer
>>> CountVectorizer().token_pattern
u'(?u)\\b\\w\\w+\\b'
>>> CountVectorizer(token_pattern=u'(?u)\\b\\w{3,}\\b').build_tokenizer()(
... 'a ab abc abcd abcde xxxxxxxxxxxxxxxxxxxxxx')
['abc', 'abcd', 'abcde', 'xxxxxxxxxxxxxxxxxxxxxx']
>>> CountVectorizer(token_pattern=u'(?u)\\b\\w{3,9}\\b').build_tokenizer()(
... 'a ab abc abcd abcde xxxxxxxxxxxxxxxxxxxxxx')
['abc', 'abcd', 'abcde']
但在您的情况下,您可能希望将标记生成器整体替换.你仍然可以看看source of the default implementation.
但需要注意的一点是:要构建标签云,直接使用nltk和python标准库中的collections.Counter类可能要容易得多. sklearn对此任务没有太多帮助.
标签:text-mining,python,scikit-learn,data-mining,nltk 来源: https://codeday.me/bug/20190825/1723871.html