其他分享
首页 > 其他分享> > wikitext数据集

wikitext数据集

作者:互联网

WikiText用于长时间依赖的语言建模

WikiText 英语词库数据(The WikiText Long Term Dependency Language Modeling Dataset)是一个包含1亿个词汇的英文词库数据,这些词汇是从Wikipedia的优质文章和标杆文章中提取得到,包括WikiText-2WikiText-103两个版本,相比于著名的 Penn Treebank (PTB) 词库中的词汇数量,前者是其2倍,后者是其110倍。每个词汇还同时保留产生该词汇的原始文章,这尤其适合当需要长时依赖(longterm dependency)自然语言建模的场景。

WikiText2可从URL = 'https://s3.amazonaws.com/research.metamind.io/wikitext/wikitext-2-v1.zip'下载

from torchtext.datasets import WikiText2

train_iter = WikiText2(split='train')
或者
train_iter, val_iter, test_iter = WikiText2()

参考:
https://www.sohu.com/a/305178444_100118081

关于WikiText2的进一步使用,参考https://pytorch.org/tutorials/beginner/transformer_tutorial.html

标签:WikiText2,wikitext,词汇,https,WikiText,iter,词库,数据
来源: https://www.cnblogs.com/xuehuiping/p/15343201.html