《BERT模型的优化改进方法》读书笔记
作者:互联网
https://mp.weixin.qq.com/s/MHm7AxmcuEgFR_oNbNqFkQ
参考这篇文章
BERT预训练方法
BERT 模型使用两个预训练目标来完成文本内容特征的学习。
- 掩藏语言模型(Masked Language Model,MLM)通过将单词掩盖,从而学习其上下文内容特征来预测被掩盖的单词
- 相邻句预测(Next Sentence Predication,NSP)通过学习句子间关系特征,预测两个句子的位置是否相邻
标签:BERT,预测,读书笔记,模型,单词,学习,优化,句子 来源: https://www.cnblogs.com/charlesblc/p/16311640.html