其他分享
首页 > 其他分享> > 神经网络训练的优化操作

神经网络训练的优化操作

作者:互联网

1. 输入特征值x的归一化。

如果有(x1,x2),x1的取值范围是[0~1],而x2是[0~2000],那么会造成损失函数J(θ)的形状:

(J(θ)的等高线图)

在求J(θ)最小值时,对θ1和θ2反向传播,修改值时,往往使得修改的方向震荡。

改进办法是,将x1和x2的取值范围,规定在差不多的范围内,通常在[0,1]区间,得到J(θ)等高线图:

办法:

xi = (xi - avg(x)) / (xmax - xmin)

2. 损失函数正规化

在实际中,如果有x1……xn 多个特征,有的x= xixj 或者 xm = xi这样的特征组合而成的新特征,有用,但是不是十分重要的话(要视具体问题而定),如果对应的θ偏大的话,往往会产生过拟合问题。

例如:

(欠拟合,刚好拟合,过拟合)

 

对于损失函数,如果J(θ) = 1 / 2n ∑(hθ(x) - y ) + 1000 * θi  + 1000 * θj   (假设θi和θj 是无关紧要的特征的权值)

那么,根据反向传播 θi = θi - a * d(J(θ)) / dθi , d(J(θ)) / dθi  为一个大数,也就是θi 被"惩罚"得特别厉害。

正规的方程应该为:

J(θ) = 1 / 2n * [ ∑(hθ(x) - y )2 + λ ∑ θ2 ]

θi = θi(1 - a*λ/n) + a/m * (∑(hθ(x) - y )) *x(当hθ(x) = θTX)

原来是:θi = θi+ a/m * (∑(hθ(x) - y )) *xi

1 - a*λ/n 接近于1。也就是说,每次更新,都会先对原来的θ进行缩小

注意,如果λ过大,会导致每个θ过小,最终拟合出一条水平直线出来。

 

标签:xi,训练,等高线图,神经网络,拟合,x2,2n,x1,优化
来源: https://www.cnblogs.com/pylblog/p/10808882.html