其他分享
首页 > 其他分享> > 神经网络与深度学习入门必备知识|概论

神经网络与深度学习入门必备知识|概论

作者:互联网

神经网络与深度学习绪论

知识结构

学习路线图

预备知识

推荐课程

斯坦福大学CS224n: Deep Learning for Natural Language Processing

https://web.stanford.edu/class/archive/cs/cs224n/cs224n.1194/
Chris Manning主要讲解自然语言处理领域的各种深度学习模型

斯坦福大学CS23ln: Convolutional Neural Networks for Visual Recognition

http://cs231n.stanford.edu/
Fei-Fei Li Andrej Karpathy 主要讲解CNN、RNN在图像领域的应用

加州大学伯克利分校CS294:Deep Reinforcement Learning

http://rail.eecs.berkeley.edu/deeprlcourse/

推荐材料

林轩田 “机器学习基石” “机器学习技法”

https://www.csie.ntu.edu.tw/~htlin/mooc/

李宏毅 “1天搞懂深度学习”

http://speech.ee.ntu.edu.tw/~tlkagk/slide/Tutorial_HYLee_Deep.pptx

李宏毅 “机器学习2020”

https://www.bilibili.com/video/av94519857/

顶会论文

常用的深度学习框架

人工智能

人工智能的研究领域

图灵测试是促使人工智能从哲学探讨到科学研究的一个重要因素,引导了人工智能的很多研究方向。

因为要使得计算机能通过图灵测试,计算机必须具备理解语言、学习、记忆、推理、决策等能力。

研究领域

如何开发人工智能系统

规则是什么?

表示学习

当我们用机器学习来解决一些模式识别任务时,一般的流程包含以下几个步骤:

数据表示

语义鸿沟:人工智能的挑战之一

底层特征VS高层语义
人们对文本、图像的理解无法从字符串或者图像的底层特征直接获得

什么是好的数据表示(Representation)?

“好的表示”是一个非常主观的概念,没有一个明确的标准。
但一般而言,一个好的表示具有以下几个优点:

数据表示是机器学习的核心问题

表示形式:如何在计算机中表示语义?

一个生活中的例子:颜色

词嵌入(Word Embeddings)

表示学习

传统的特征提取VS表示学习

特征提取
特征提取VS表示学习

特征提取:基于任务或先验对去除无用特征
表示学习:通过深度模型学习高层语义特征【难点:没有明确的目标,将输入和输出连接,是端到端的学习】

深度学习

表示学习与深度学习

一个好的表示学习策略必须具备一定的深度

深度学习概述

深度学习=表示学习+决策(预测)学习[浅层学习]

深度学习的关键问题是贡献度分配问题,也就是底层特征还是中高层特征的构造函数谁更重要。

上面这种学习属于端到端学习(end-to-end)没有人为干预。

深度学习的数学描述

神经网络

生物神经元

神经网络如何学习?

赫布法则Hebb's Rule

“当神经元A的一个轴突和神经元B很近,足以对它产生影响,并且持续地、重复地参与了对神经元B的兴奋,那么在这两个神经元或其中之一会发生某种生长过程或新陈代谢变化,以致于神经元A作为能使神经元B兴奋的细胞之一,它的效能加强了。”

——加拿大心理学家 Donald Hebb,《行为的组织》,1949

人工神经网络

人工神经元

神经网络

如何解决贡献度分配问题?

偏导数

贡献度

\[\frac { \partial y } { \partial W ^ { ( l ) } } = \frac { y ( W ^ { ( l ) } + Δ W ) - y ( W ^ { ( l ) } ) } { Δ W } \]

神经网络天然不是深度学习,但深度学习天然是神经网络。

神经网络发展史

神经网络的发展大致经过五个阶段。

第一阶段:模型提出
第二阶段:冰河期
第三阶段:反向传播算法引起的复兴
第四阶段:流行度降低
第五阶段:深度学习的崛起

教程视频传送门:https://aistudio.baidu.com/aistudio/course/introduce/25876?directly=1&shared=1

原创作者:孤飞-博客园
原文地址:https://www.cnblogs.com/ranxi169/p/16582854.html

标签:表示,特征,必备,学习,神经网络,深度,概论,神经元
来源: https://www.cnblogs.com/ranxi169/p/16582854.html