提出了一种线性注意力机制,与点乘注意力机制近似,但使用更少的内存和计算损耗。
本文在DANet上设计了线性注意力机制,并在语义分割上进行评估。
Method
将注意力从传统的softmax注意力替换成泰勒展开的一阶近似,仅线性的时间和存储复杂度。
之后太强了,用核函数替换sim
标签:Segmentation,Semantic,Attention,近似,替换成,线性,机制,注意力
来源: https://blog.csdn.net/gesshoo/article/details/123598277