其他分享
首页 > 其他分享> > 【Linear Attention Mechanism: An Efficient Attention for Semantic Segmentation】CVPR2020

【Linear Attention Mechanism: An Efficient Attention for Semantic Segmentation】CVPR2020

作者:互联网

提出了一种线性注意力机制,与点乘注意力机制近似,但使用更少的内存和计算损耗。

本文在DANet上设计了线性注意力机制,并在语义分割上进行评估。

Method

将注意力从传统的softmax注意力替换成泰勒展开的一阶近似,仅线性的时间和存储复杂度。

 之后太强了,用核函数替换sim

标签:Segmentation,Semantic,Attention,近似,替换成,线性,机制,注意力
来源: https://blog.csdn.net/gesshoo/article/details/123598277