其他分享
首页 > 其他分享> > jieba库的使用

jieba库的使用

作者:互联网

安装:

  cmd模式下输入

pip install jieba

  anaconda对应环境

conda install jieba

分词原理:

   Jieba分词依靠中文词库

    -利用一个中文词库,确定汉字之间的关联概率

    -汉字间概率大的组成词组,形成分词结果

    -除了分词,用户还可以添加自定义的词组

jieba库的三种模式:

  -精确模式:把文本精确的切分开,不存在冗余单词

#jieba.lcut(s)
jieba.lcut("中国是一个伟大的国家")

#output:['中国', '是', '一个', '伟大', '的', '国家']  

  -全模式:把文本中所有的可能的词语都扫描出来,有冗余  

#jieba.lcut(s,cut_all=True)
jieba.lcut("中国是一个伟大的国家",cut_all=True)

#output:['中国', '国是', '一个', '伟大', '的', '国家']   

  -全搜索引擎模式:在精确模式的基础上,对长词再次切分

#jieba.lcut_for_search(s)
jieba.lcut_for_search("中华人民共和国是伟大的")

#output:['中华', '华人', '人民', '共和', '共和国', '中华人民共和国', '是', '伟大', '的']

 

向分词词典中增加新词w:

#jieba.add_word(w)

jieba.add_word("蟒蛇语言")

jieba.lcut("淡黄的长裙,蓬松的头发")
['淡黄', '的', '长裙', ',', '蓬松', '的', '头发']

标签:jieba,模式,lcut,使用,伟大,output,分词
来源: https://www.cnblogs.com/hao11/p/12588165.html