(2020.6.30)Slot Attention
作者:互联网
参考资料:https://arxiv.org/abs/2006.15055
Kipf太厉害了,刚在ICLR2020发了一个CNN+GNN,就又来了一个slot attention,刚公开几天就好几个人复现了: https://gist.github.com/lucidrains/0d57316e8729ec794f3fe100454d636a 和 https://github.com/lucidrains/slot-attention 。我等学术鼠辈还是老老实实好好学习搬砖吧。
注意力机制借鉴了Transformer,输入N个unit输出K个slot,创新点在于用GRU引入了迭代机制。
标签:Slot,slot,attention,2020.6,30,lucidrains,github,https,com 来源: https://www.cnblogs.com/sqlkrad/p/13216546.html