其他分享
首页 > 其他分享> > (2020.6.30)Slot Attention

(2020.6.30)Slot Attention

作者:互联网

参考资料:https://arxiv.org/abs/2006.15055

Kipf太厉害了,刚在ICLR2020发了一个CNN+GNN,就又来了一个slot attention,刚公开几天就好几个人复现了: https://gist.github.com/lucidrains/0d57316e8729ec794f3fe100454d636ahttps://github.com/lucidrains/slot-attention 。我等学术鼠辈还是老老实实好好学习搬砖吧。

注意力机制借鉴了Transformer,输入N个unit输出K个slot,创新点在于用GRU引入了迭代机制。

标签:Slot,slot,attention,2020.6,30,lucidrains,github,https,com
来源: https://www.cnblogs.com/sqlkrad/p/13216546.html