其他分享
首页 > 其他分享> > 机器学习-32-ELMO、BERT、GPT

机器学习-32-ELMO、BERT、GPT

作者:互联网


ELMO、BERT、GPT

背景

机器是如何理解我们的文字的呢?最早的技术是1-of-N encoding,把每一个词汇表示成一个向量,每一个向量都只有一个地方为1,其他地方为0。但是这么做词汇之间的关联没有考虑,因为不同词之间的距离都是一样的。

所以,接下来有了word class的概念,举例说dog、cat和bird都是动物,它们应该是同类。但是动物之间也是有区别的,如dog和cat是哺乳类动物,和鸟类还是有些区别的。

后来有了更进阶的想法,称作word embedding,我们用一个向量来表示一个单词,相近的词汇距离较近,如cat和dog。那word embedding怎么训练呢?比较熟知的就是word2vec方法。

关于上面几个概念的介绍,可以参看这里

标签:BERT,训练,ELMO,32,模型,embedding,GPT,向量
来源: https://blog.csdn.net/qq_44766883/article/details/112476340