其他分享
首页 > 其他分享> > TansX 系列,知识图谱嵌入(KGE)论文阅读

TansX 系列,知识图谱嵌入(KGE)论文阅读

作者:互联网

TansX 系列(一)


上篇文章 重点介绍了 TansE 算法的实现原理,核心思想:使得找出 h + r ≈ t 的(置信度相对高的)三元组做预测


文末也提到,这种方法也具有特定的缺陷,对语义关系不能进行很好处理,特别是在一对多关系等模式,如下图所示:

在这里插入图片描述


在替换三元组的尾实体向量后,这些新三元组都拥有较高的排名前十的置信度,它们里边是真实三元组的命中率概率相对要高(可参考上篇文章),但这些尾实体间的语义关系无法判断, 因为在二维平面中,h 到 t 之间的翻译路径只有一条,【之后的改进方法就是是破坏让这种翻译路径的唯一性,对向量空间(考虑关系)进行重新建模来改善TransE语义识别的问题…】它们在数学表示上是无限趋近的,并不能知道四个尾实体的语义联系和区别。举个例子,我们都考了100分,都被系统划分为学霸,但是我和你在现实中是什么样的人,有什么共同点和不同点,系统是不知道的,它唯一知道的是我们在学习的好坏这种关系上都是优秀,甚至觉得我和你的一切没有什么区别,我等于你,你等于我…,这样导致的后果是,在用mini-batch SGD进行更新参数,而这些正样本三元组因被视作同一个,而放弃使用它们,由此这些本属于正例的三元组不会出现在hit@10中,这直接导致预测的命中率下降,对模型的精度和实验结果都会造成影响

在这里插入图片描述


还有,TransE无法对自反关系作出判断,给定一个三元组,如果在训练时,出现了另一个三元组,当然换头实体向量和尾实体向量只替换一个,有一种情况,在替换三元组A的其中一个实体向量后,出现了(我,爱,你)这样的三元组,在替换三元组B时候,出现了(你,爱,我)这样的三元组,其实这两个三元组是自反关系,如下图所示:

在这里插入图片描述

对这样的两个三元组处理时,如果是 TransE 这种翻译式的方法,经过计算就可能得到错误的结果:

在这里插入图片描述


于是后续出现了很多改进方法,由于这些方法都是以翻译模型为基础,我们称其为TransX方法


TransH

如图所示,头实体向量 h 和尾实体向量 t 并非投影到 xoy 平面,而是将每种关系都建模为一个超平面(这样可以使得实体及其关系之间的表示方法多元化,解决实体间无法分出语义的缺陷),将三元组中的头实体和尾实体分别映射到该超平面中,TransH是将关系解释为超平面上的翻译操作。其中每个关系都有两个向量,超平面的范数向量 wr (用于计算映射后的实体向量) 和超平面上的平移向量 dr :

在这里插入图片描述


其中得分函数和损失函数的设计和 TransE 的形式是一样的,不同的是,是损失函数中加入了约束条件,另外负采样方式也进行了完善:

在这里插入图片描述

上边的替换策略,比如一对多中,增加了头实体替换的概率,从而来构造负例,这样是有好处的,反过来试想,如果替换尾实体,很容易让我们文中第一个图那样,t1 替换成 t2 或 t3 或 t4,对于识别它们本身的特异性是不利的,或者这样的负采样质量不高。另一个改进是在三维中的设计,由于投影到某《关系超平面》后成立的向量,其原向量可以不同,由此改进了 TransE 的固有缺陷


TransR

虽然TransH模型使每个实体在不同关系下拥有了不同的表示,它仍然假设实体和关系处于相同的语义空间中,这一定程度上限制了TransH的表示能力。TransR模型对不同的关系建立各自的关系空间,在计算时先将实体映射到关系空间进行计算(不同的 r 用不同的投影矩阵 Mr),然后再建立从头实体到尾实体的翻译关系。

在这里插入图片描述

损失函数:

在这里插入图片描述


TransR 和 TransH 的区别:

TransR 是直接转换在关系空间中探究,转换后的空间维度可能与之前不同,但更为直观

TransH 是在超平面上进行的探究,仍然在公共的语义空间进行,即实体和关系仍然都在同一三维空间中嵌入


TransX 系列都是平移距离模型,思路主要是运用基于距离的打分函数,对关系进行打分,以此进行训练

还有很多类似的模型,目前先看到这里,还有一种思路是语义匹配模型,后续有时间再更新…

标签:关系,图谱,实体,语义,三元组,KGE,TansX,向量,超平面
来源: https://blog.csdn.net/qq_40506723/article/details/122812457