其他分享
首页 > 其他分享> > 李宏毅机器学习课程笔记-5.1深度学习之引言

李宏毅机器学习课程笔记-5.1深度学习之引言

作者:互联网

目录

深度学习的历史

深度学习的三个步骤

和机器学习一样:

  1. 确定模型(Model)/函数集(Function Set),在深度学习中就是定义一个神经网络。

    不同的连接会构成多样的网络结构。

  2. 确定如何评价函数的好坏

    如果是多分类,那和Classification一章中一样,计算每个样本预测结果与Ground Truth的交叉熵,然后求和,即为Loss。

  3. 确定如何找到最好的函数

    还是Gradient Descent。

    神经网络模型对应的函数比较复杂,而反向传播算法(Backpropagation)是一个很有效的计算神经网络梯度的方法。

神经网络的结构

全连接前馈神经网络

即Fully Connected Feedforward Neural Network,FFN。

一些网络

其中Residual Net并不是一般的全连接前馈神经网络

网络结构 提出年份 层数 ImageNet错误率
AlexNet 2012 8 16.4%
VGGNet 2014 19 7.3%
GoogleNet 2014 22 6.7%
Residual Net 2015 152 3.57%

机器学习和深度学习面对的不同问题

这两个问题哪个更容易呢?可能后者更容易些,比如在图像识别、语音识别任务中,人类可能并不知道自己是如何识别图像和语音的,就无法通过符号主义进行特征工程。

关于深度学习的一些疑问


Github(github.com):@chouxianyu

Github Pages(github.io):@臭咸鱼

知乎(zhihu.com):@臭咸鱼

博客园(cnblogs.com):@臭咸鱼

B站(bilibili.com):@绝版臭咸鱼

微信公众号:@臭咸鱼的快乐生活

转载请注明出处,欢迎讨论和交流!


标签:5.1,李宏毅,前馈,学习,感知机,神经网络,深度,神经元
来源: https://www.cnblogs.com/chouxianyu/p/14334224.html