wikitext数据集
作者:互联网
WikiText用于长时间依赖的语言建模
WikiText 英语词库数据(The WikiText Long Term Dependency Language Modeling Dataset)是一个包含1亿个词汇的英文词库数据,这些词汇是从Wikipedia的优质文章和标杆文章中提取得到,包括WikiText-2和WikiText-103两个版本,相比于著名的 Penn Treebank (PTB) 词库中的词汇数量,前者是其2倍,后者是其110倍。每个词汇还同时保留产生该词汇的原始文章,这尤其适合当需要长时依赖(longterm dependency)自然语言建模的场景。
WikiText2可从URL = 'https://s3.amazonaws.com/research.metamind.io/wikitext/wikitext-2-v1.zip'下载
from torchtext.datasets import WikiText2
train_iter = WikiText2(split='train')
或者
train_iter, val_iter, test_iter = WikiText2()
参考:
https://www.sohu.com/a/305178444_100118081
关于WikiText2的进一步使用,参考https://pytorch.org/tutorials/beginner/transformer_tutorial.html
标签:WikiText2,wikitext,词汇,https,WikiText,iter,词库,数据 来源: https://www.cnblogs.com/xuehuiping/p/15343201.html