其他分享
首页 > 其他分享> > 论文解读(MGAE)《MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs》

论文解读(MGAE)《MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs》

作者:互联网

论文信息

论文标题:MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs
论文作者:Qiaoyu Tan, Ninghao Liu, Xiao Huang, Rui Chen, Soo-Hyun Choi, Xia Hu
论文来源:2022, ArXiv
论文地址:download 
论文代码:download

1 Introduction

   MAE 在图上的应用。

2 Method

  整体框架:

  

2.1 Encoder

  本文的掩藏目标是随机掩藏一部分(30%)边,然后考虑 GCN、GraphSage 作为主干网络提取特征信息,对于被掩藏的边将通过 Decoder 训练得到。

  掩藏策略:

  注意:上述两种策略边掩藏率是设置一样的。

2.2 Cross-correlation decoder

  由于Encoder 采用的是基于消息传递机制的 Encoder,所以最终只得到被保留部分的节点潜在嵌入。

  Encoder $K$ 层传播结构共生成的保留节点嵌入矩阵 $\left\{\mathbf{H}^{(1)}, \mathbf{H}^{(2)}, \cdots, \mathbf{H}^{(K)}\right\}$,对于存在的保留节点进行 cross-correlations 操作,即

    $\mathbf{h}_{e_{v, u}}=\|_{k, j=1}^{K} \mathbf{h}_{v}^{(k)} \odot \mathbf{h}_{u}^{(j)}$

  其中:

  为避免过于复杂,通常 $K=2$。

  假设剩余的节点有 $m$ 个,那么输入到对应的 MLP Decoder  的将有 $m(m-1)$ (无向图)个特征向量,最终预测 $(u,v)$ 直接边存在的概率通过下式生成:

    $y_{v, u}=\operatorname{MLP}\left(\mathbf{h}_{v}^{(K)}, \mathbf{h}_{u}^{(K)}\right)$

2.3 Reconstruction target

  MGAE解码器,只重建掩码的边,目标函数如下:

    $\mathcal{L}=-\sum\limits _{(v, u) \in \mathcal{E}_{\text {mask }}} \log \frac{\exp \left(\mathbf{y}_{v u}\right)}{\sum_{z \in \mathcal{V}} \exp \left(\mathbf{y}_{v z}\right)}$

  为加速训练,本文采用负采样策略。

2.4 Algorithm

   整体算法如下:

  

3 Experiments

数据集

  

Link prediction

  

Node classifification

  

 

4 Conclusion

  图上边掩码AE。

 

修改历史

2022-06-17 创建文章

论文解读目录

标签:MGAE,right,mathbf,Self,论文,Encoder,Graphs,掩藏,节点
来源: https://www.cnblogs.com/BlairGrowing/p/16386259.html