其他分享
首页 > 其他分享> > 斯坦福NLP课程 | 第11讲 - NLP中的卷积神经网络

斯坦福NLP课程 | 第11讲 - NLP中的卷积神经网络

作者:互联网

ShowMeAI研究中心

作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI
教程地址http://www.showmeai.tech/tutorials/36
本文地址http://www.showmeai.tech/article-detail/248
声明:版权所有,转载请联系平台与作者并注明出处

收藏ShowMeAI查看更多精彩内容


NLP中的卷积神经网络
ShowMeAI斯坦福CS224n《自然语言处理与深度学习(Natural Language Processing with Deep Learning)》课程的全部课件,做了中文翻译和注释,并制作成了GIF动图!

NLP中的卷积神经网络
本讲内容的深度总结教程可以在这里 查看。视频和课件等资料的获取方式见文末


引言

NLP中的卷积神经网络

授课计划

授课计划

欢迎来到课程的下半部分!

欢迎来到课程的下半部分!

书籍推荐

书籍推荐

Natural Language Processing with PyTorch: Build Intelligent Language Applications Using Deep Learning

1.卷积神经网络介绍

(卷积神经网络相关内容也可以参考ShowMeAI的对吴恩达老师课程的总结文章 深度学习教程 | 卷积神经网络解读

1.1 从RNN到CNN

从RNN到CNN

从RNN到CNN

1.2 CNN 卷积神经网络

CNN卷积神经网络

1.3 什么是卷积

什么是卷积?

1.4 文本的一维卷积

文本的一维卷积

1.5 带填充的文本的一维卷积

带填充的文本的一维卷积

1.6 conv1d,随时间推移填充最大池化

conv1d,随时间推移填充最大池化

1.7 PyTorch实现

PyTorch实现

batch_size= 16
word_embed_size= 4
seq_len= 7
input = torch.randn(batch_size, word_embed_size, seq_len)
conv1 = Conv1d(in_channels=word_embed_size, out_channels=3, kernel_size=3) # can add: padding=1 
hidden1 = conv1(input)
hidden2 = torch.max(hidden1, dim=2) # max pool

1.8 步长 (这里为2)

CNN步长

1.9 局部最大池化

其他概念:局部最大池化,步长=2

1.10 1维卷积的k-max pooling

conv1d, k-max pooling over time, k= 2

1.11 空洞卷积:dilation为2

其他概念:dilation = 2

扩张卷积 / 空洞卷积

补充讲解 / Summary

2.应用CNN做文本分类

2.1 用于句子分类的单层CNN

用于句子分类的单层CNN

用于句子分类的单层CNN

2.2 单层CNN

单层CNN

\[c_{i}=f\left(\mathbf{w}^{T} \mathbf{x}_{i : i+h-1}+b\right) \]

2.3 池化与通道数

池化与通道数

\[\mathbf{c}=\left[c_{1}, c_{2}, \dots, c_{n-h+1}\right] \in \mathbb{R}^{n-h+1} \]

2.4 多通道输入数据

多通道输入数据

2.5 Classification after one CNN layer

Classification after one CNN layer

补充讲解

2.6 Regularization 正则化

Regularization 正则化

\[y=\operatorname{softmax}\left(W^{(S)}(r \circ z)+b\right) \]

\[\hat{W}^{(S)}=p W^{(S)} \]

3.CNN细节

3.1 CNN参数讨论

All hyperparameters in Kim (2014)

3.2 实验结果

实验

3.3 对比CNN与RNN

Problem with comparison?

3.4 模型对比

Model comparison: Our growing toolkit

补充讲解

3.5 跳接结构应用

Gated units used vertically

3.6 批归一化BatchNorm

Batch Normalization (BatchNorm)

3.7 1x1卷积

1 x 1 Convolutions

3.8 CNN 应用:机器翻译

CNN 应用:机器翻译

3.9 #论文解读# Learning Character-level Representations for Part-of-Speech Tagging

#论文解读# Learning Character-level Representations for Part-of-Speech Tagging

3.10 #论文解读# Character-Aware Neural Language Models

#论文解读# Character-Aware Neural Language Models

4.深度CNN用于文本分类

4.1 深度卷积网络用于文本分类

深度卷积网络用于文本分类

4.2 VD-CNN 结构

VD-CNN 结构

4.3 VD-CNN的卷积模块

Convolutional block in VD-CNN

4.4 实验结果

实验结果

补充讲解

实验结果

4.5 RNNs比较慢

RNNs比较慢

5.Q-RNN模型

5.1 Quasi-Recurrent Neural Network

Quasi-Recurrent Neural Network

\[\begin{aligned} \mathbf{z}_{t} &=\tanh \left(\mathbf{W}_{z}^{1} \mathbf{x}_{t-1}+\mathbf{W}_{z}^{2} \mathbf{x}_{t}\right) \\ \mathbf{f}_{t} &=\sigma\left(\mathbf{W}_{f}^{1} \mathbf{x}_{t-1}+\mathbf{W}_{f}^{2} \mathbf{x}_{t}\right) \\ \mathbf{o}_{t} &=\sigma\left(\mathbf{W}_{o}^{1} \mathbf{x}_{t-1}+\mathbf{W}_{o}^{2} \mathbf{x}_{t}\right) \end{aligned} \]

\[\begin{aligned} \mathbf{Z} &=\tanh \left(\mathbf{W}_{z} * \mathbf{X}\right) \\ \mathbf{F} &=\sigma\left(\mathbf{W}_{f} * \mathbf{X}\right) \\ \mathbf{O} &=\sigma\left(\mathbf{W}_{o} * \mathbf{X}\right) \end{aligned} \]

\[\mathbf{h}_{t}=\mathbf{f}_{t} \odot \mathbf{h}_{t-1}+\left(1-\mathbf{f}_{t}\right) \odot \mathbf{z}_{t} \]

5.2 Q-RNN 实验:语言模型

Q-RNN 实验:语言模型

5.3 Q-RNNs:情感分析

Q-RNNs:情感分析

5.4 QRNN 的限制

QRNN 的限制

5.5 RNN的缺点&Transformer提出的动机

RNN的缺点&Transformer提出的动机

6.视频教程

可以点击 B站 查看视频的【双语字幕】版本

[video(video-klkA71cI-1652090215444)(type-bilibili)(url-https://player.bilibili.com/player.html?aid=376755412&page=11)(image-https://www.icode9.com/i/ll/?i=img_convert/7ee2eb31a0061266f88507f561dd96f4.png)(title-【双语字幕+资料下载】斯坦福CS224n | 深度学习与自然语言处理(2019·全20讲))]

7.参考资料

ShowMeAI系列教程推荐

NLP系列教程文章

斯坦福 CS224n 课程带学详解

ShowMeAI用知识加速每一次技术成长

标签:11,NLP,mathbf,卷积,斯坦福,课程,CNN
来源: https://www.cnblogs.com/showmeai/p/16269019.html