其他分享
首页 > 其他分享> > 基于word2vec训练的268G+使用(包含百度百科)

基于word2vec训练的268G+使用(包含百度百科)

作者:互联网

这是网友用268G+语料训练好的word2vec模型。

训练语料

下载链接:https://pan.baidu.com/s/1WH4exhHdSK3MwFPjFZK_xA 
提取码:hosi 

模型参数

其它相关

  1. 分词词典使用了130w+词典。分词代码:jieba.lcut(sentence),默认使用了HMM识别新词;
  2. 剔除了所有非中文字符;
  3. 最终得到的词典大小为6115353;
  4. 模型格式有两种bin和model,使用方式:
    a. bin模式:model = gensim.models.KeyedVectors.load_word2vec_format(model_path, binary=True)
    b. model模式:model = gensim.models.Word2Vec.load(model_path)
  5. 文件压缩后大小与未压缩相近,因此未压缩。

baike_26g_news_13g_novel_229g.bin文件与下方代码在同一层级目录,即可运行,如输入“乔峰”,则打印相似度最相似的10个单词,可以发现还是比较准确的。

import gensim

model=gensim.models.KeyedVectors.load_word2vec_format("baike_26g_news_13g_novel_229g.bin", binary=True)

for word,similarity in model.most_similar(u'乔峰',topn=10):
    print(word, similarity)

慕容复 0.914642333984375
萧峰 0.884083092212677
洪七公 0.8724542260169983
萧远山 0.8711599111557007
段延庆 0.8710967302322388
张无忌 0.861467719078064
林平之 0.8604815006256104
全冠清 0.8547517657279968
慕容博 0.8489874601364136
虚竹 0.8482588529586792 

参考文章:

268G+训练好的word2vec模型(中文词向量) - 简书

标签:bin,load,word2vec,models,百科,268G,model,gensim
来源: https://blog.csdn.net/weixin_43734080/article/details/121759831