其他分享
首页 > 其他分享> > seq2seq

seq2seq

作者:互联网

  1. Seq2seq的思想和应用

Encoder-decoder第一篇:Learning Phrase Representations using RNN Encoder-Decoder for Statis Machine Translation
Seq2seq:sequence to sequence Learning with Neural Networks
知识图谱增加可解释性:seq2seq interpretability knowledge graph

  1. Train(encoder) and test

  2. Decoder
    在任何的seq2seq模型中,都是串行的,之后的transformer解决了这个问题。

greedy decoder:在seq2seq中,串行*(greedy decoder),局部最优,达不到全局最优
Exhaustic Search:把所有的可能性考虑进来
Beam Search:只考虑最好的top k

Beam search在第二个阶段还进行了筛选,选概率值最大的beam_size
{Beam_size=1} =={greedy search}

1、NLP之Seq2Seq:
原文:https://blog.csdn.net/qq_32241189/article/details/81591456
2、深度学习的seq2seq模型:
原文:https://blog.csdn.net/wangyangzhizhou/article/details/77883152
3、Seq2Seq模型简介
原文:https://www.jianshu.com/p/1c6b1b0cd202
4、三分钟带你对 Softmax 划重点
原文:https://blog.csdn.net/red_stone1/article/details/80687921
https://www.jianshu.com/p/b2b95f945a98

标签:seq2seq,greedy,blog,https,原文,net
来源: https://www.cnblogs.com/Towerb/p/14196654.html