其他分享
首页 > 其他分享> > 图卷积网络(GCN)

图卷积网络(GCN)

作者:互联网

图卷积网络

引言

当数据为图结构数据的时候:数据嵌入在不规则的网络上,比如 社交网络、人体骨骼数据、天气数据等 ,在计算机视觉以及组合优化等应用较广
主要分为以下两类:

谱域 空域 GCN GCN GCN

1 base kenowledge

1.1 spectural

1.1.1 拉普拉斯变换与函数空间

对n纬空间的量化可以通过正交的基来表达,以向量空间的正交为例
when -1<=x<=1, 三个函数1,x,x^2
the first base p1=1, < 1 , x > = ∫ − 1 1 x d x <1,x>=\int_{-1}^{1}xdx <1,x>=∫−11​xdx
the second base p2=x, < x , x 2 > = ∫ − 1 1 x x 2 d x <x,x^2>=\int_{-1}^{1}xx^2dx <x,x2>=∫−11​xx2dx
the thrid base p3 p 3 = x 2 − < x 2 , 1 > < 1 , 1 > − < x 2 , x > < x , x > = x 2 − 1 / 3 p3=x^2-\frac{<x^2,1>}{<1,1>}-\frac{<x^2,x>}{<x,x>}=x^2-1/3 p3=x2−<1,1><x2,1>​−<x,x><x2,x>​=x2−1/3
一个幂级数可以写为:
A ( x ) = ∑ n = 0 8 a n x n A(x)=\sum_{n=0}^{8}a_nx^n A(x)=∑n=08​an​xn
a n a_n an​可以看成离散的函数,上式可以写成:
A ( x ) = ∑ n = 0 8 a ( n ) x n A(x)=\sum_{n=0}^{8}a(n)x^n A(x)=∑n=08​a(n)xn
举个例子:当an=1/n!
A ( x ) = 1 + 1 1 ! x + 2 2 ! x 2 + . . . = e x A(x)=1+\frac{1}{1!}x+\frac{2}{2!}x^2+...=e^x A(x)=1+1!1​x+2!2​x2+...=ex (1)
公式(1)就是函数 e x e^x ex在x=0的泰勒展开
可以进一步理解为,取一个定义在正整数上的离散函数,然后进行无穷次的相加操作,结果却能够产生一个连续函数。而且注意其中的离散函数an的变量为n,相加得出的却是关于变量x的连续函数
现在让离散求和变为连续求和,即不再是变量n=0,1,2,3…,而是另外定义一个变量t,并且有0<=t<8,
A ( x ) = ∫ 0 8 a ( t ) x t d t A(x)=\int_{0}^{8}a(t)x^tdt A(x)=∫08​a(t)xtdt
我们进一步简化,因为做微积分运算方便:
A ( x ) = ∫ 0 8 a ( t ) ( e x p ( l n x ) ) t d t = ∫ 0 8 f ( t ) e x p ( − s t ) d t ∣ s = − l n x A(x)=\int_{0}^{8}a(t)(exp(lnx))^tdt=\int_{0}^{8}f(t)exp(-st)dt | s=-lnx A(x)=∫08​a(t)(exp(lnx))tdt=∫08​f(t)exp(−st)dt∣s=−lnx
我们得到了Laplace Transform
拉普拉斯本身是一种积分变换,上面的公式可以看为积分变换的核函数,下面依次给出了傅立叶、拉普拉斯和希尔伯特变换

变换核函数
傅立叶 K ( t , w ) = 1 2 p i e x p ( − i w t ) K(t,w)=\frac{1}{\sqrt{2pi}}exp(-iwt) K(t,w)=2pi ​1​exp(−iwt)
laplace k ( t , s ) = e x p ( − s t ) k(t,s)=exp(-st) k(t,s)=exp(−st)
hilbert k ( t , s ) = 1 p i 1 s − t k(t,s)=\frac{1}{pi}\frac{1}{s-t} k(t,s)=pi1​s−t1​

1.1.2 谱域卷积

傅立叶变换F,满足下面关系式子,傅立叶变换就建立起了图域卷积=频域相乘
f ∗ g = F − 1 ( F ( f ) F ( g ) ) f*g=F^{-1}(F(f)F(g)) f∗g=F−1(F(f)F(g))
那图论下的函数, F G : V − > R F_G:V->R FG​:V−>R,使得每一个节点v属于V,都被映射到实数R上。
图函数的梯度
梯度的意义为,衡量函数在每一个点处,在每个正交方向的变化,如f(x,y,z) α f α x = f ( x + d x ) − f ( x ) ( x + d x ) − x \frac{\alpha f}{\alpha x}=\frac{f(x+dx)-f(x)}{(x+dx)-x} αxαf​=(x+dx)−xf(x+dx)−f(x)​, 在图论中,我们认为一个节点沿着每一条边通向它的相邻节点,每两条边之间相互并没有什么关系,我们认为这个节点的每一条边相互都是正交的。
那么对于一个节点 v 0 v_0 v0​,我们认为其梯度是在一条通向 v 1 v_1 v1​的边 e 0 1 e_01 e0​1上的分量为
F G ( v 0 ) − F G ( v 1 ) d 0 1 = ( F G ( v 0 ) − F G ) e 01 \frac{F_G(v_0)-F_G(v_1)}{d_01}=(F_G(v_0)-F_G)e_{01} d0​1FG​(v0​)−FG​(v1​)​=(FG​(v0​)−FG​)e01​
可以定义如下图网络,依次为网络、矩阵 K G K_G KG​(列表示边,行表示接受的节点)、图函数 F G F_G FG​,则 K G T f G K_G^Tf_G KGT​fG​结果如下,可以看出其即为 F G F_G FG​梯度的结果。那么根据拉普拉斯算子的定义为其为函数梯度的散度,每个点上梯度的增加和减少,即进入的减去出去的,那么在上面结果的基础上乘 K G ′ K_G^{'} KG′​, [ − 1 − 1 0 0 … 1 0 − 1 0 … ⋮ ⋮ ⋱ ] ×    [ 10 − 15 ⋮ ] = [ 5 58 ⋮ ] \Bigg[\begin{array}{ccc} -1 & -1 & 0 &0 &\dots\\ 1 & 0 &-1 &0&\dots\\ \vdots&\vdots&\ddots \end{array} \Bigg]\times\;\Bigg[\begin{array}{ccc}10 \\ -15\\ \vdots\end{array}\Bigg]=\Bigg[\begin{array}{ccc}5 \\ 58\\ \vdots\end{array}\Bigg] [−11⋮​−10⋮​0−1⋱​00​……​]×[10−15⋮​]=[558⋮​]
那么,图论函数的纳普拉斯算子 K G ′ K G T K_G^{'}K_G^T KG′​KGT​
经过观察可以发现其可以表示为: L=D-W
在这里插入图片描述
在这里插入图片描述### 1.1.3 谱分解
有了经典的拉普拉斯算子L,对其进行矩阵谱分解, L = U Λ U T = U d i a g ( λ i ) U − 1 L=U\Lambda U_T=Udiag(\lambda_i)U^{-1} L=UΛUT​=Udiag(λi​)U−1
其有以下的性质:

  1. 拉普拉斯矩阵的n个特征向量是n纬空间中的一组正交基
  2. 实数拉普拉斯矩阵的特征向量一定是实向量
  3. 拉普拉斯矩阵的特征之非负
  4. 图上的拉普拉斯矩阵是图上的一种拉普拉斯算子
    还有一个重要的性质,其特征值大小有顺序,其与傅立叶变换中,低频特征和高频特征具有一定的相似性

1.2 space

参考

[1] 傅立叶变换
[2] 谱图理论

标签:frac,函数,卷积,拉普拉斯,网络,GCN,变换,exp,Bigg
来源: https://blog.csdn.net/weixin_41960098/article/details/112424792