其他分享
首页 > 其他分享> > Raki的读paper小记:Unified Named Entity Recognition as Word-Word Relation Classification

Raki的读paper小记:Unified Named Entity Recognition as Word-Word Relation Classification

作者:互联网

Abstract & Introduction & Related Work

嵌套NER和不连续NER的示意图,比flat更加的复杂
在这里插入图片描述
W 2 N E R W^2NER W2NER 模型总览图,可以看到整个模型是比较复杂的
在这里插入图片描述

NER as Word-Word Relation Classification

在所有token对中,存在以下三种关系
在这里插入图片描述
word-word矩阵,表示token对之间的关系,非对称,表示第行个token和第列个token之间的关系
在这里插入图片描述

Unified NER Framework

Encoder Layer

BERT得到word embedding之后送入LSTM得到上下文表示,没什么好说的
在这里插入图片描述

Convolution Layer

CNN层有三个不同的模组
在这里插入图片描述

Conditional Layer Normalization

V i j \mathbf{V}_{ij} Vij​ 表示词对之间的的表示,使用条件层归一化来计算

γ \gamma γ 和 λ \lambda λ 通过对隐状态投影得到
在这里插入图片描述

BERT-Style Grid Representation Build-Up

V \mathbf{V} V 代表词信息
E d \mathbf{E}^d Ed 代表token对的相对位置信息
E t \mathbf{E}^t Et 代表代表区域信息,用于区分矩阵中的下三角和上三角区域

最后拼接起来经过一个线性层

在这里插入图片描述

Multi-Granularity Dilated Convolution

对 C \mathbf{C} C 使用三个空洞卷积,并拼接起来得到 Q \mathbf{Q} Q
在这里插入图片描述

Co-Predictor Layer

在这里插入图片描述

Biaffine Predictor

利用了之前LSTM得到的上下文表示
在这里插入图片描述

MLP Predictor

把Q投影,再跟双线性层的输出一起输入softmax层进行得到每一类的概率
在这里插入图片描述

Decoding

我们模型的预测是单词和它们之间的关系,这可以被视为一个方向性的单词图。解码的目的是利用NNW关系找到图中从一个词到另一个词的某些路径。每条路径都对应于一个实体提及。除了用于NER的类型和边界识别,THW关系也可以作为消歧义的辅助信息。图4说明了四种从易到难的解码情况
在这里插入图片描述

Learning

优化以下损失函数
在这里插入图片描述

Experimental Results

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Conclusion

在本文中,我们提出了一个新的基于词-词关系分类的统一NER框架,以解决统一NER的并发问题。词对之间的关系被预先定义为下一个邻接词关系和尾部词头关系。我们发现,我们的框架对各种NER相当有效,在14个广泛使用的基准数据集上达到了SoTA的性能。此外,我们提出了一个新的骨干模型,包括一个BERT-BiLSTM编码器层,一个用于建立和完善词对网格表示的卷积层,以及一个用于联合推理关系的协同预测层。通过消融研究,我们发现我们的以卷积为中心的模型表现良好,几个提议的模块,如联合预测器和网格表示丰富化也很有效。我们的框架和模型易于操作,这将促进NER研究的发展

Remark

虽然模型有一点点复杂,组件比较多,但是效果牛逼,那只能说 好!

标签:关系,Unified,Named,Word,THW,token,word,NER
来源: https://blog.csdn.net/Raki_J/article/details/123591434