其他分享
首页 > 其他分享> > Dropout!

Dropout!

作者:互联网

dropout指神经网络在训练时通过随机失活部分神经元方式来降低过拟合的策略,大多在全连接层中使用。

  1. 类似于集成学习中的集成效果:因为在训练过程中每次随机失活不同的神经元,网络结构已经发生了改变。因此可以这样理解:在整个dropout的训练过程就相当于训练了很多个不同的网络,而最后测试时相当于集成了这些网络的综合结果(类似于取平均或者多模型投票)
  2. dropout减弱了神经元之间复杂的依赖共生关系,降低了神经元不同参数之间的耦合程度。阻止了某些特征仅仅在有其它特定特征下才有效果的情况,从而迫使网络少关注这些特殊情况,而只能去学习一些更加鲁棒的特征。
  3. 由于dropout在训练时随机置零,因此为训练输入带来了随机性,同时也稀疏了网络参数,可以看作某种意义上的参数正则化。

标签:训练,Dropout,元素,随机,dropout,失活,神经元
来源: https://www.cnblogs.com/yinpengchen/p/16525106.html