编程语言
首页 > 编程语言> > jieba中文处理 python

jieba中文处理 python

作者:互联网

一、Jieba中文分词

本文使用jieba进行文本进行分词处理,它有3种模式,精确模式,全模式模式,搜索引擎模式:

· 精确模式:试图将句子最精确地切开,适合文本分析;

· 全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;

· 搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。

现以“南京市长江大桥”为例,3种分词模式的结果如下:

【全模式】: 南京 南京市 京市 市长 长江 长江大桥 大桥
【精确模式】: 南京市 长江大桥
【搜索引擎模式】: 南京 京市 南京市 长江 大桥 长江大桥

为了避免歧义和切出符合预期效果,在这里使用精确模式

 1 import jieba
 2 all_mode=jieba.cut('南京市长江大桥',cut_all=True)
 3 alls=" ".join(all_mode)
 4 print('【全模式】:',alls)
 5 jingque=jieba.cut('南京市长江大桥',cut_all=False)
 6 jings=" ".join(jingque)
 7 print('【精确模式】:',jings)
 8 search=jieba.cut_for_search('南京市长江大桥')
 9 searchs=" ".join(search)
10 print('【搜索引擎模式】:',searchs)

二、去停用词

去停用词一般包括三类,

标点符号

特殊符号

无意义的虚词

停用词表

链接:https://pan.baidu.com/s/1sBpZJMDJcbgyA81kC78PRg
提取码:b54i
复制这段内容后打开百度网盘手机App,操作更方便哦

 1 import jieba
 2 # 创建停用词列表
 3 def stopwordslist():
 4     stopwords = [line.strip() for line in open('中文停用词库.txt',encoding='gbk').readlines()]
 5     return stopwords
 6 # 对句子进行中文分词
 7 def seg_depart(sentence):
 8     # 对文档中的每一行进行中文分词
 9     print("正在分词")
10     sentence_depart = jieba.cut(sentence.strip())
11     # 创建一个停用词列表
12     stopwords = stopwordslist()
13     # 输出结果为outstr
14     outstr = ''
15     # 去停用词
16     for word in sentence_depart:
17         if word not in stopwords:
18             if word != '\t':
19                 outstr += word
20                 outstr += " "
21     return outstr
22 if __name__ == '__main__':
23     # 给出文档路径
24     filename = "斗破苍穹.txt"
25     outfilename = "out.txt"
26     inputs = open(filename, 'r', encoding='UTF-8')
27     outputs = open(outfilename, 'w', encoding='UTF-8')
28     
29     # 将输出结果写入ou.txt中
30     for line in inputs:
31         line_seg = seg_depart(line)
32         outputs.write(line_seg + '\n')
33         print("-------------------正在分词和去停用词-----------")
34     outputs.close()
35     inputs.close()
36     print("删除停用词和分词成功!!!")

 

三、去掉高频词,稀有词,和计算Bigrams

去掉高频词、稀有词是针对后续的主题模型(LDA、ATM)时使用的,

主要是为了排除对区隔主题意义不大的词汇,最终得到类似于停用词的效果。

 

Bigrams是为了自动探测出文本中的新词,基于词汇之间的共现关系---如果两个词经常一起毗邻出现,

那么这两个词可以结合成一个新词,比如“数据”、“产品经理”经常一起出现在不同的段落里,

那么,“数据_产品经理”则是二者合成出来的新词,只不过二者之间包含着下划线。

 四、关键词提取

1,基于TF-IDF算法的关键词提取

jieba.analyse.extract_tags(sentence, topK=20, withWeight=False,
allowPOS=())
其中需要说明的是:
1.sentence 为待提取的文本
2.topK 为返回几个 TF/IDF 权重最大的关键词,默认值为 20
3.withWeight 为是否一并返回关键词权重值,默认值为 False
4.allowPOS 仅包括指定词性的词,默认值为空,即不筛选

1 import jieba.analyse
2 #读取文件,返回一个字符串,使用utf-8编码方式读取,该文档位于此python同以及目录下
3 path='斗破苍穹.txt'
4 with open(path,'r',encoding='utf-8')as ff:
5     data=ff.read()
6 #返回词频最高的20个词
7 word=jieba.analyse.extract_tags(data,topK=20)
8 print(' '.join(word))

 

参考文章:https://blog.csdn.net/meiqi0538/article/details/80218870#0203_245

    :https://www.jianshu.com/p/29aa3ad63f9d

    :https://baijiahao.baidu.com/s?id=1587137075873716187&wfr=spider&for=pc

 

 

标签:jieba,python,中文,模式,用词,print,长江大桥,分词
来源: https://www.cnblogs.com/zxg-1997/p/jieba.html