神经网络与深度学习-邱锡鹏-学习笔记16-多项式回归
作者:互联网
神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili
注解:
1.非线性的问题加入用线性方程去拟合,那会出现欠拟合的情况。
2.解决办法就是用Ф(X)代替X,如下图:
注解:
1.依然可以把多项式回归模型写成线性的形式,此时可以利用线性回归的最小二乘准则求一个最小二乘解。
注解:
1.在优化的过程中,M并没有当成参数进行优化,所以,M是一个超参数。超参数用来控制函数的形状的。
2.不同的超参数的选择会导致求解出来的w差异很大,那如何选择多项式的次数呢?
注解:
1.M=0,误差非常大。
2.M=1,比一条横线强一点,但是误差仍然非常的大。
3.M=3,比较符合。
4.M=9,过拟合了,在样本(或者说训练集)上的错误率为0,但是和绿色的真实的线差异很大,加入运用到测试集上,误差一定会很大,因为测试集和训练集是独立同分布的,测试集中的数据一定位于绿色的线附近,此时带入到拟合出来的红色的线里面,误差很大。
5.绿色的线是真实的线。
6.到底M,也就是多项式的次数选择多少合适呢?这就是一个模型选择的问题,这是一个很难的问题。
标签:误差,16,多项式,学习,神经网络,参数,拟合,注解,邱锡鹏 来源: https://www.cnblogs.com/yibeimingyue/p/15438225.html