其他分享
首页 > 其他分享> > 神经网络与深度学习-邱锡鹏-学习笔记16-多项式回归

神经网络与深度学习-邱锡鹏-学习笔记16-多项式回归

作者:互联网

神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili

 

 注解:

1.非线性的问题加入用线性方程去拟合,那会出现欠拟合的情况。

2.解决办法就是用Ф(X)代替X,如下图:

 

 

 

 

 

 

注解:

1.依然可以把多项式回归模型写成线性的形式,此时可以利用线性回归的最小二乘准则求一个最小二乘解。

 

 

注解:

1.在优化的过程中,M并没有当成参数进行优化,所以,M是一个超参数。超参数用来控制函数的形状的。

2.不同的超参数的选择会导致求解出来的w差异很大,那如何选择多项式的次数呢?

 

 

 

 

注解:

1.M=0,误差非常大。

2.M=1,比一条横线强一点,但是误差仍然非常的大。

3.M=3,比较符合。

4.M=9,过拟合了,在样本(或者说训练集)上的错误率为0,但是和绿色的真实的线差异很大,加入运用到测试集上,误差一定会很大,因为测试集和训练集是独立同分布的,测试集中的数据一定位于绿色的线附近,此时带入到拟合出来的红色的线里面,误差很大。

5.绿色的线是真实的线。

6.到底M,也就是多项式的次数选择多少合适呢?这就是一个模型选择的问题,这是一个很难的问题。

 

标签:误差,16,多项式,学习,神经网络,参数,拟合,注解,邱锡鹏
来源: https://www.cnblogs.com/yibeimingyue/p/15438225.html