其他分享
首页 > 其他分享> > 论文阅读《Extracting Multiple-Relations in One-Pass with Pre-Trained Transformers》

论文阅读《Extracting Multiple-Relations in One-Pass with Pre-Trained Transformers》

作者:互联网

前言
1.思想

通过修改transformer的基础结构去解决 Multiple Relation Extraction(MRE)中的 Multiple Pass 问题

2.问题 3.实现

将实体间的位置信息融入到attention 计算当中。位置信息是通过相对位置获取,加入到attention的步骤是通过融合计算。下面分别来看一下。

3.1 如何获取相对位置信息

使用一个二维矩阵定义一个距离。如下图所示:

在这里插入图片描述
这样我们就可以得到每个token间的一个相对距离,这个相对距离的计算方式如下:

3.2 如何融合到模型中?

将相对位置信息融入到attention中。这个融入的过程就体现在将上面得到的 relation position embedding 放到 attention 中一起计算。 如下图所示:
在这里插入图片描述
这没啥好说的了。

4.总结

其实吧 ,现在回过头来看,魔改模型都是“灌水”式的研究,那些通过排列组合在数据上跑出最优实验结果然后再发paper总感觉少了 点儿意思,我并不是说作者他们做的不好,但是确实不够有用。因为这些文章不需要几年就会过时,真的很令人痛心。希望我能够做出一些有用的研究。

 

标签:Pre,...,transformer,位置,Multiple,计算,attention,Trained
来源: https://blog.51cto.com/lawsonabs/2984778