其他分享
首页 > 其他分享> > CS224n Lecture18:Constituency Parsing, TreeRNNs

CS224n Lecture18:Constituency Parsing, TreeRNNs

作者:互联网

在这里插入图片描述

Lecture Plan

1. The spectrum of language in CS

在这里插入图片描述

Semantic interpretation of language – Not just word vectors

我们怎样才能弄清楚更⼤的短语的含义?

The snowboarder 在语义上相当于 A person on a snowboard,但它们的字⻓不⼀样

⼈们通过较⼩元素的语义成分来解释较⼤⽂本单元的意义 - 实体,描述性术语,事实,论点,故事
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Are languages recursive?

2. Building on Word Vector Space Models

在这里插入图片描述

How should we map phrases into a vector space?

在这里插入图片描述

Constituency Sentence Parsing: What we want

在这里插入图片描述

Learn Structure and Representation

在这里插入图片描述

Recursive vs. recurrent neural networks

在这里插入图片描述

Recursive Neural Networks for Structure Prediction

在这里插入图片描述

如果我们⾃上⽽下的⼯作,那么我们在底层有单词向量,所以我们想要递归地计算更⼤成分的含义

输⼊:两个候选的⼦节点的表示
输出:

Recursive Neural Network Definition

在这里插入图片描述

Parsing a sentence with an RNN (greedily)

在这里插入图片描述

Parsing a sentence

在这里插入图片描述
在这里插入图片描述

Max-Margin Framework - Details

Scene Parsing

在这里插入图片描述

和组合类似的准则

Algorithm for Parsing Images

Same Recursive Neural Network as for natural language parsing! (Socher et al. ICML 2011)
在这里插入图片描述

Multi-class segmentation

在这里插入图片描述

3. Backpropagation Through Structure

Introduced by Goller & Küchler (1996)

和通⽤的反向传播的规则相同

在这里插入图片描述

Discussion: Simple TreeRNN

在这里插入图片描述

4. Version 2: Syntactically-Untied RNN

[Socher, Bauer, Manning, Ng 2013]

Compositional Vector Grammars

Related Work for parsing

SU-RNN / CVG [Socher, Bauer, Manning, Ng 2013]

Learns soft notion of head words
初始化:
在这里插入图片描述

Analysis of resulting vector representations

在这里插入图片描述

Version 3: Compositionality Through Recursive Matrix-Vector Spaces

[Socher, Huval, Bhat, Manning, & Ng, 2012]

Compositionality Through Recursive Matrix-Vector Recursive Neural Networks

在这里插入图片描述

Matrix-vector RNNs

[Socher, Huval, Bhat, Manning, & Ng, 2012]
在这里插入图片描述

Predicting Sentiment Distributions

语⾔中⾮线性的好例⼦
在这里插入图片描述

Classification of Semantic Relationships

在这里插入图片描述

Version 4: Recursive Neural Tensor Network

Socher, Perelygin, Wu, Chuang, Manning, Ng, and Potts 2013

Beyond the bag of words: Sentiment detection

⼀段⽂字的语调是积极的,消极的还是中性的?

Stanford Sentiment Treebank

http://nlp.stanford.edu:8080/sentiment/

Better Dataset Helped All Models

在这里插入图片描述

想法:允许载体的加性和介导的乘法相互作⽤

Positive/Negative Results on Treebank

Classifying Sentences: Accuracy improves to 85.4
在这里插入图片描述

Experimental Results on Treebank

Negation Results

双重否定时,积极反应应该上升
在这里插入图片描述

Version 5: Improving Deep Learning Semantic Representations using a TreeLSTM

[Tai et al., ACL 2015; also Zhu et al. ICML 2015]
⽬标:

Long Short-Term Memory (LSTM) Units for Sequential Composition

⻔是 [ 0 , 1 ] d [0, 1]^d [0,1]d的向量,⽤于逐元素乘积的软掩蔽元素
在这里插入图片描述

Tree-Structured Long Short-Term Memory Networks

[Tai et al., ACL 2015]
在这里插入图片描述

Tree-structured LSTM

将连续LSTM推⼴到具有任何分⽀因⼦的树
在这里插入图片描述
在这里插入图片描述

Results: Sentiment Analysis: Stanford Sentiment Treebank

在这里插入图片描述
在这里插入图片描述

Results: Semantic Relatedness SICK 2014 (Sentences Involving Compositional Knowledge)

在这里插入图片描述

Forget Gates: Selective State Preservation

Stripes = forget gate activations; more white 㱺 more preserved
在这里插入图片描述

5. QCD-Aware Recursive Neural Networks for Jet Physics

Gilles Louppe, Kyunghun Cho, Cyril Becot, Kyle Cranmer (2017)
在这里插入图片描述

Tree-to-tree Neural Networks for Program Translation

[Chen, Liu, and Song NeurIPS 2018]

Human-Centered Artificial Intelligence

在这里插入图片描述

码文不易,如果觉得对你有用的话,点个赞再走吧,谢谢宁!

(才疏学浅,如果有什么说的不对的地方,欢迎大家在评论区或者私信进行指正。)

标签:TreeRNNs,RNN,组合,矩阵,Lecture18,单词,CS224n,向量,Recursive
来源: https://blog.csdn.net/weixin_44857688/article/details/113776355