ShuffleNet论文学习
作者:互联网
ShuffleNet(2017)
Abstract
本文引入了一个用于移动端的高效CNN,这一新的体系结构使用了2种新的操作:①pointwise group convolution & channel shuffle, 能够极大地简化计算并保持准确率。
(效率>MobileNet)
与流行的结构相比,ShuffleNet使用了更多的feature map channels,能够编码更多的信息。
Related Work
Group Convolution
introduced in AlexNet for distributing the model over two GPUs
Channel Shuflle Operation
Model Acceleration
- pruning network connections or channels
- quantization and factorization
- FFT 加速 卷积
- Distilling
Approach
Channel Shuffle For Group Convolutions
先前的网络采用了group convolution,但并未考虑1*1卷积,而这占用了93%的计算资源。
为解决这一问题,一种直观的想法是使用通道稀疏连接,但堆叠群卷积层会削弱表达能力,解决方法是做shuffle
Channel shuffle 用于ResNet:
除此之外,depthwise convolution只在bottleneck feature map上使用,尽管它的理论复杂度很低,在移动设备上的效率却不高
总体结构:
标签:shuffle,convolution,卷积,论文,ShuffleNet,学习,Group,Channel 来源: https://www.cnblogs.com/cititude/p/11536523.html