GPT笔记
GPT与Transformer中解码器的结构类似。GPT由多个Transformer中的解码器块组成,与Transformer中解码器不同在于没有编码器-解码器注意力层。因此,GPT中解码器块由遮蔽自注意力层和基于位置的前馈神经网络。
模型通过语言模型方法进行学习。将原始文本与译文用特殊符号隔开输入到模型中,学习每个位置输出的损失,最小化平均损失对模型进行训练
应用:
标签:Transformer,模型,笔记,解码器,GPT,文本
来源: https://blog.csdn.net/qq_29787929/article/details/122261808