其他分享
首页 > 其他分享> > Seq2Seq Attention(这三篇就够了,精心发掘整理)

Seq2Seq Attention(这三篇就够了,精心发掘整理)

作者:互联网

作为知识的搬运工,这里介绍三篇我认为关于Seq2Seq Attention写的比较好的博客,都是出自知乎大神,特将它们搬运到CSDN。
第一篇是
真正的完全图解Seq2Seq Attention模型

Transformer模型笔记
文章的点赞数达到了500+
作者是哥大+悉尼大学的小姐姐,知乎里只有6篇文章,偏偏质量都很高。
后两篇同样是知乎上的,是一个公众号
从Seq2seq到Attention模型到Self Attention

从Seq2seq到Attention模型到Self Attention(二)
仔细阅读这三篇,相信你对Seq2Seq Attention的掌握会上一个层级。

标签:知乎,Self,Attention,Seq2Seq,就够,模型,三篇
来源: https://blog.csdn.net/weixin_44305115/article/details/101382394