机器学习-32-ELMO、BERT、GPT
作者:互联网
ELMO、BERT、GPT
背景
机器是如何理解我们的文字的呢?最早的技术是1-of-N encoding,把每一个词汇表示成一个向量,每一个向量都只有一个地方为1,其他地方为0。但是这么做词汇之间的关联没有考虑,因为不同词之间的距离都是一样的。
所以,接下来有了word class的概念,举例说dog、cat和bird都是动物,它们应该是同类。但是动物之间也是有区别的,如dog和cat是哺乳类动物,和鸟类还是有些区别的。
后来有了更进阶的想法,称作word embedding,我们用一个向量来表示一个单词,相近的词汇距离较近,如cat和dog。那word embedding怎么训练呢?比较熟知的就是word2vec方法。
关于上面几个概念的介绍,可以参看这里
标签:BERT,训练,ELMO,32,模型,embedding,GPT,向量 来源: https://blog.csdn.net/qq_44766883/article/details/112476340