【忆臻解读】Andrej Karpathy提到的神经网络六大坑
作者:互联网
最近,李飞飞老师得意门生Andrej Karpathy大神在推特上连发几条twitter,细数了六种神经网络研究中的常见错误。
下面我总结一下我学习过程中遇到下面6条中的4条。
1you didn't try to overfit a single batch first
正确解释@张楠 这句话是说在用大数据集训练之前先用小数据集试一下,排除一些明显的错误。
之前的我误解的解释如下:
没有先试过所有训练数据作为一个大batch训练,我们都知道,在训练神经网络的过程中,对于数据会有三个方法处理,一个是min-batch,一个是SGD,一个是Andrej Karpathy提到的所有数据作为一个batch。虽然将所有训练数据作为一个大batch训练能够保证梯度是往正确的方向移动,但是我们绝大部分都是min-batch,然后调节其中的batch-size这个超参数,我个人也没有尝试过将所有训练数据作为一个大batch训练,之后可以试试。(这里额外说一句,batch-size是很重要的超参数,需要仔细调节)
2train(),eval()模式混用
you forgot to toggle train/eval mode for the net
忘了为网络切换训练/评估模式
这个理由主要是针对model 在训练时和评价时不同的 Batch Normalization 和 Dropout 方法模式。
3忘掉设置.zero_grad()
you forgot to .zero_grad()(in pytorch) before .backward()
忘了在.backward()之前.zero_grad()(在pytorch中)
这个错误我真正碰到过,忘记了写.zero_grad()各种nan,导致结果非常差,最后找了一天才找到。大家可以在实在找不到原因的是,打印梯度出来看看,是不是有某些层参数为0,几乎没有学习,有些为nan了,去逐步找原因。
4误传参数
you passed softmaxed ouputs to a loss that expects raw logits
将softmaxed输出传递给损失函数,本来期望是logits值,而不是过了softmax之后的值。
大白话讲就是给函数传进去的参数错啦!!我们在编写代码的时候很容易犯这种错误,因为最后run起来的时候,它不报错啊,哥,不报错,只是结果很差,这很难受啊,我们很难发现错误,第一感觉,我去,idea不work,所以大家效果不好的时候,不要放弃啊,仔细看看有没有常见的bug!!
5BatchNorm的坑
使用BatchNorm时,您没有对线性/ 二维卷积层使用bias = False,或者反过来忘记将其包含在输出层中。 这个倒不会让你失败,但它们是虚假的参数
答案来自@陈明jian
如果卷积层后面跟着BatchNormalization的话,卷积层就不需要偏置参数b,只需要w参数。
6误用view操作
以为view()和permute()是一样的事情(不正确地使用view)
答案来自@深度学习修汽车
举例说明:比如要将一个(2, 12)的tensor改为(4, 2, 3)的tensor。这样就不能直接用view而需要多次用permute()来交换axis(转置2D的matrix)来达到目的。
tc.manual_seed(1)
x = tc.randn(2, 12)
print(x)
y = x.permute(1, 0)
print(y)
z = y.view(4, 3, 2)
print(z)
a = z.permute(0, 2, 1)
print(a)
大家可以在留言区踊跃讨论自己在深度学习中遇到的坑,讨论成长最快。
PS:不开赞赏,希望大家看后随手点赞、点广告,支持我们,谢谢大家。
标签:训练,grad,忆臻,batch,Andrej,参数,Karpathy,permute,view 来源: https://blog.51cto.com/15127587/2671189