Knowledge evolution
作者:互联网
1.dropout与spiltnet区别:
例如,如果一个玩具网络层有10个神经元,dropout会为所有10个神经元提供一个独立的表示。相比之下,SplitNets只对拟合假设拟合假设内的神经元进行了独立表征。因此,分裂掩模M提供了更精细的控制级别。
2.扩展dropout的trick:
因为深层网络输入图片的某些通道不会被激活,即会丢失部分特征信息。
Weighted Channel Dropout (WCD):three extra modules to a deep network:
1.GlobalAverage Pooling,
2.Weighted Random Selection,
3.Random Number Generator.
These three modules are added to multiple convolutional layers.
3.KE与各剪枝方法的比较:
P12.A. Appendix: Related Work
标签:10,evolution,Weighted,Knowledge,dropout,Random,three,神经元 来源: https://blog.csdn.net/leoliu2n/article/details/122254988