其他分享
首页 > 其他分享> > 【吴恩达深度学习】L1W1 学习笔记

【吴恩达深度学习】L1W1 学习笔记

作者:互联网

1.2 什么是神经网络

卷积神经网络(CNN)——图像

循环神经网络(RNN),全称是长短期记忆网络(LSTM)——自然语言处理(NLP)

ReLU 函数

ReLU 函数

线性整流函数(Linear rectification function),又称修正线性单元,是一种人工神经网络中常用的激活函数(activation function),通常指代以斜坡函数及其变种为代表的非线性函数

通常意义下,线性整流函数指代数学中的斜坡函数,即\(f(x)=max(0,x)\)

image-20220507201954357

在深度学习中,我们将机器学习中预测的参数称为特征,也就是对特征参数进行一系列数学运算,来得到预测结果。对于一个房子价格来说,它的大小,卧室数量,邮政编码(位置),富裕程度都可以成为影响其房价的特征。

在图上每一个画的小圆圈都可以是 ReLU 的一部分,也就是指修正线性单元,或者其 它稍微非线性的函数。基于房屋面积和卧室数量,可以估算家庭人口,基于邮编,可以估 测步行化程度或者学校的质量。

image-20220507202703204

而像这样的,就是一个简单的神经网络,而对于这个来说,神经网络有三层,蓝框有数据的那一层成为“输入层”,中间三个圆圈成为“隐藏层”,最后则为输出层。

1.3 用神经网络进行监督学习

应用数据 网络模型 缩写
时间序列 递归神经网络 RNN
图像分类,识别 卷积神经网络 CNN
图像,视频生成 生成对抗网络 GAN
金融预测 深度前馈网络 DFF

https://zhuanlan.zhihu.com/p/159305118

1.4 为什么深度学习会兴起?

image-20220507203843552

神经网络方面的一个巨大突破是从 sigmoid 函数转换到一个 ReLU 函数

在负值区域,sigmoid函数的梯度会接近0,学习的速度慢(梯度下降参数更新慢)

sigmoid的导数只有在0附近的时候有比较好的激活性,在正负饱和区的梯度都接近于0,所以这会造成梯度弥散,而relu函数在大于0的部分梯度为常数,所以不会产生梯度弥散现象。第二,relu函数在负半区的导数为0 ,所以一旦神经元激活值进入负半区,那么梯度就会为0,也就是说这个神经元不会经历训练,即所谓的稀疏性。第三,relu函数的导数计算更快,程序实现就是一个if-else语句,而sigmoid函数要进行浮点四则运算。

标签:吴恩达,函数,sigmoid,梯度,L1W1,ReLU,学习,神经网络
来源: https://www.cnblogs.com/melodit/p/16244164.html