其他分享
首页 > 其他分享> > 过拟合产生的原因(Root of Overfitting)

过拟合产生的原因(Root of Overfitting)

作者:互联网

之前在《过拟合和欠拟合(Over fitting & Under fitting)》一文中简要地介绍了过拟合现象,现在来详细地分析一下过拟合产生的原因以及相应的解决办法。

 

过拟合产生的原因:

第一个原因就是用于训练的数据量太少。这个很好理解,因为理想的训练数据是从所有数据中抽取的无偏差抽样。如果训练数据量较少,那么很有可能训练数据就不能完全反映所有数据的规律。因此模型很可能学习到的是一些特殊的例子,而不是真实的规律。

 

之前说过,过拟合就是模型把噪音也学习了进去。其中一个噪音就是大家熟知的随机产生的噪音(stochastic noise),这也是第二个原因。

 

第三个原因是目标函数的复杂度很高,目标函数和假设函数之间的差距也可以看作是一种噪音,称为确定性噪音(deterministic noise)。在训练数据有限的情况下,如果目标函数很复杂,那么就算假设函数与之很接近,也会产生较大的噪音。

 

下图展现了在训练数据有限的情况下,目标函数和假设函数之间的差距。

二次多项式模型与十次多项式模型在两数据集上效果的比较。左边数据集由某个十次多项式产生,噪声适中;右边数据集由某个50次多项式产生,噪声非常小

经过试验,这两个场景都是十次多项式的训练误差小,但是其验证误差要比二次多项式的大很多。这说明十次多项式发生了过拟合现象。

 

 下图是用二次多项式和十次多项式拟合的学习曲线:

可以看出,十次多项式函数的训练误差一直要比二次多项式函数的低,但是当训练数据有限时,十次多项式函数的验证误差要比二次多项式函数的高不少。

 

一般我们会认为假设函数离目标函数越接近越好,但是显然,在训练数据有限的情况下,这种想法是不正确的。因此,当训练数据有限时,应该用简单的模型来拟合,这样还有可能会取得不错的效果。之前是不是常听到别人说线性回归模型虽然很简单,但是往往会取得不错的预测效果?这也正说明了这个道理。

 

下图是当目标函数复杂度固定时,样本量与噪音强度对过拟合程度的影响(红色表示过拟合程度很高):

模型复杂度固定时,样本量与噪声强度对过拟合的影响

可以看出,样本量越少,噪音强度越高,过拟合程度越高。

 

下图是当噪音强度固定时,样本量与目标函数复杂度对过拟合程度的影响(红色表示过拟合程度很高):

噪声强度固定时,样本量与模型复杂度对过拟合的影响

可以看出,样本量越少,目标函数复杂度越高,过拟合程度越高。

 

这两张图的区别在于左下角,可以看到,第二张图,当样本量很少,目标函数复杂度很低时,也会产生过拟合现象。这是因为使用了过于复杂的模型来拟合数据,这也带出了第四个原因---模型复杂度比目标函数高。

 

总结一下过拟合产生的原因:

 

解决办法:

 

标签:Overfitting,函数,训练,数据,多项式,噪音,拟合,Root
来源: https://www.cnblogs.com/HuZihu/p/11081463.html