其他分享
首页 > 其他分享> > AI 神经网络学习

AI 神经网络学习

作者:互联网

神经网络学习

1、输出与输入的关系(感知基):
$$
y=\begin{Bmatrix}
1 & {\overrightarrow{x}\cdot \overrightarrow{w}+b>0}\
0 & {\overrightarrow{x}\cdot \overrightarrow{w}+b\leqslant 0}
\end{Bmatrix}
$$

这个模型由生活中而来,$\overrightarrow{x}$是输入表示各种情况,$\overrightarrow{w}$表示各种情况的影响权重,$\overrightarrow{x}\cdot \overrightarrow{w}$得到整体的影响,$b$是门限(偏移)当影响$y>0$就做出1决策,否则就做出0决策。

2、为什么要使用(sigmoid neuron):
$$
y=\frac{1}{1+e^{-(\overrightarrow{x}\cdot \overrightarrow{w}+b)}}
$$
感知基是一个不连续的函数,可能微小的改变$\Delta \overrightarrow{w}$,会导致$y$的翻转性的变化。使用sigmoid neuron,使y与w和b是连续关系(微小的$\Delta \overrightarrow{w}$,y也是微小的变化),且输出的值在0~1之间,所以选择$\frac{1}{1+e^{-x}}$

3、误差函数


输出与输入的关系最好为如下,看起来很复杂的样子。

误差函数为:

很多时候会使用一个平均误差函数,为什么我还不懂。

梯度下降法就是从导数方向调整w和b,使误差函数(代价函数)的值最小。(统计值最小,所以要求一个平均误差),其中权重和偏移b的导数如下

看起来很复杂,反向传播的方式计算起来就没那么复杂了。

导数的反方向是降低误差函数c的最快的方向,给定一个学习率$\eta$,每次学习调整$\eta\frac{\alpha }{w_{11_21}}$


最终使c达到最小。

原文写于2019-12-05,2021-12-08改为markdown

标签:误差,frac,overrightarrow,导数,AI,学习,cdot,神经网络,函数
来源: https://www.cnblogs.com/yuandonghua/p/15659573.html