其他分享
首页 > 其他分享> > attention mechanism思考

attention mechanism思考

作者:互联网

1. 了解有几种attention mechanism

2. 它们的原理分别是什么?

3. 哪种attention可以用在paper上.

self-attention, 以及有没有什么hierarchical attention可以用的。

4. 优势是什么?

 

Supplement knowledge:

  1. 双向RNN,因为时刻t的输出不仅取决于之前时刻的信息,还取决于未来的时刻,所以有了双向RNN。比如要预测一句话中间丢失的一个单词,有时只看上文是不行的,需要查看上下文。双向RNN很简单,就是两个互相叠加的RNN。

References:

  1. https://buomsoo-kim.github.io/attention/2020/01/01/Attention-mechanism-1.md/

标签:context,RNN,attention,mechanism,vector,思考,output,hidden
来源: https://www.cnblogs.com/dulun/p/13394877.html