其他分享
首页 > 其他分享> > 自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling

自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling

作者:互联网

自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling

标签:自监督、图神经网络、对比学习

动机

贡献

思想

核心

两个方面---数据加强(分别在图结构和属性方面做了增强)和网络设计(模仿 Siamese network 设计方式,目的丢弃负样本)

框架

对于一个原图 \(G\),我们分别进行数据增强得到两个加强图 \(G_1, G_2\),分别利用两个 GNN encoder (\(f_{\theta}、f_{\phi}\) 其编码器的参数分别是 \(\theta、\phi\))进行对两个增强图数据进行编码。并在 \(f_{\theta}\) 在应用一个 prediction block \(g_{\theta}\)(MLP ),对于 \({\theta}\) 的更行主要用到对比损失函数,对比的经过 prediction block得到的 \(X_1\) 和 经过编码器 \(f_{\phi}\) 得到的 \(X_2\)。而对于 \(\phi\) 主要是通过 \(\theta\) 进行 EMA(指数移动平均)进行更新。(假设左边部分为 student network,用 s-n 表示,右边部分为 teacher network,用 t-n 表示)

数据增强

Topology augmentation

​ 拓扑数据扩充的目的是通过利用图结构的属性来揭示原始图的不同拓扑视图,在本文中,主要引用了两种 pageRank 算法,一种是 pageRank 基于随机游走的 pageRank-PPR 和 热核 (head-kernel) pageRank-HK, 并且提出了第三种基于卡兹索引的高阶网络构建技术

pageRank-PPR:\(H^{PPR} = \alpha(I - (1 - \alpha) \widetilde{A})^{-1}\)

pageRank-HK:\(H^{HK} = exp(tAD^{-1}-t)\)

pageRank-KATZ:\(H^{katz} = (I-\beta\widetilde{A})\beta \widetilde{A}\)

feature augmentation

encoder and prediction

encoder

上图为一个 encoder \(f\) , 其主要目的是为了增广后的图进行编码,用于下游任务(并行 GNN)

prediction

prediction 或者是一个 projection head,其主要对 encoder 后的进行一个映射

在这个架构中主要有两个不同点,一个是 s-n 中有投影头,而 t-n 中没有投影头,对于 s-n 来说,投影头相当于大脑,去学习 t-n 中对图的表示 \(g(X_1) ≈ X_2\),另一个就是对于编码器参数的更新,s-n 中的参数 \(\theta\) 使用最小化 Loss function 进行 BP 更新参数 \(\theta\) ,而 t-n 中对于并没有利用 BP 更新参数 \(\phi\) ,而是用 s_n 的参数 \(\theta\) 做一个 EMA 去更新 t-n中的参数 \(\phi\)

Loss function and EMA update

Loss function

\[L_{\theta} = 2 - 2 · \frac{<g_{\theta}(X_1),X_2>}{||g_{\theta}(X_1) ||_F ·||(X_2)||_F} \]

EMA update

\[\phi = \tau\phi + (1 - \tau)\theta \]

实验

在 7 个数据集中进行节点分类任务,对比结果如上图。前三个引文数据网络数据之所以比较好是因为标签部分少,相对于原始模型。本文提出的自监督方法 Self-GNN 更好,而后面四个数据集不好的原因是对于训练集部分都有标签,相当于完全监督学习,所以对于本文方法没有原始模型的好。

标签:phi,Neural,Graph,Self,prediction,encoder,pageRank,theta,数据
来源: https://www.cnblogs.com/owoRuch/p/15576501.html