图卷积网络(GCN)
作者:互联网
图卷积网络
引言
当数据为图结构数据的时候:数据嵌入在不规则的网络上,比如 社交网络、人体骨骼数据、天气数据等 ,在计算机视觉以及组合优化等应用较广
主要分为以下两类:
1 base kenowledge
1.1 spectural
1.1.1 拉普拉斯变换与函数空间
对n纬空间的量化可以通过正交的基来表达,以向量空间的正交为例
when -1<=x<=1, 三个函数1,x,x^2
the first base p1=1,
<
1
,
x
>
=
∫
−
1
1
x
d
x
<1,x>=\int_{-1}^{1}xdx
<1,x>=∫−11xdx
the second base p2=x,
<
x
,
x
2
>
=
∫
−
1
1
x
x
2
d
x
<x,x^2>=\int_{-1}^{1}xx^2dx
<x,x2>=∫−11xx2dx
the thrid base p3
p
3
=
x
2
−
<
x
2
,
1
>
<
1
,
1
>
−
<
x
2
,
x
>
<
x
,
x
>
=
x
2
−
1
/
3
p3=x^2-\frac{<x^2,1>}{<1,1>}-\frac{<x^2,x>}{<x,x>}=x^2-1/3
p3=x2−<1,1><x2,1>−<x,x><x2,x>=x2−1/3
一个幂级数可以写为:
A
(
x
)
=
∑
n
=
0
8
a
n
x
n
A(x)=\sum_{n=0}^{8}a_nx^n
A(x)=∑n=08anxn
a
n
a_n
an可以看成离散的函数,上式可以写成:
A
(
x
)
=
∑
n
=
0
8
a
(
n
)
x
n
A(x)=\sum_{n=0}^{8}a(n)x^n
A(x)=∑n=08a(n)xn
举个例子:当an=1/n!
A
(
x
)
=
1
+
1
1
!
x
+
2
2
!
x
2
+
.
.
.
=
e
x
A(x)=1+\frac{1}{1!}x+\frac{2}{2!}x^2+...=e^x
A(x)=1+1!1x+2!2x2+...=ex (1)
公式(1)就是函数
e
x
e^x
ex在x=0的泰勒展开
可以进一步理解为,取一个定义在正整数上的离散函数,然后进行无穷次的相加操作,结果却能够产生一个连续函数。而且注意其中的离散函数an的变量为n,相加得出的却是关于变量x的连续函数
现在让离散求和变为连续求和,即不再是变量n=0,1,2,3…,而是另外定义一个变量t,并且有0<=t<8,
A
(
x
)
=
∫
0
8
a
(
t
)
x
t
d
t
A(x)=\int_{0}^{8}a(t)x^tdt
A(x)=∫08a(t)xtdt
我们进一步简化,因为做微积分运算方便:
A
(
x
)
=
∫
0
8
a
(
t
)
(
e
x
p
(
l
n
x
)
)
t
d
t
=
∫
0
8
f
(
t
)
e
x
p
(
−
s
t
)
d
t
∣
s
=
−
l
n
x
A(x)=\int_{0}^{8}a(t)(exp(lnx))^tdt=\int_{0}^{8}f(t)exp(-st)dt | s=-lnx
A(x)=∫08a(t)(exp(lnx))tdt=∫08f(t)exp(−st)dt∣s=−lnx
我们得到了Laplace Transform
拉普拉斯本身是一种积分变换,上面的公式可以看为积分变换的核函数,下面依次给出了傅立叶、拉普拉斯和希尔伯特变换
变换 | 核函数 |
---|---|
傅立叶 | K ( t , w ) = 1 2 p i e x p ( − i w t ) K(t,w)=\frac{1}{\sqrt{2pi}}exp(-iwt) K(t,w)=2pi 1exp(−iwt) |
laplace | k ( t , s ) = e x p ( − s t ) k(t,s)=exp(-st) k(t,s)=exp(−st) |
hilbert | k ( t , s ) = 1 p i 1 s − t k(t,s)=\frac{1}{pi}\frac{1}{s-t} k(t,s)=pi1s−t1 |
1.1.2 谱域卷积
傅立叶变换F,满足下面关系式子,傅立叶变换就建立起了图域卷积=频域相乘
f
∗
g
=
F
−
1
(
F
(
f
)
F
(
g
)
)
f*g=F^{-1}(F(f)F(g))
f∗g=F−1(F(f)F(g))
那图论下的函数,
F
G
:
V
−
>
R
F_G:V->R
FG:V−>R,使得每一个节点v属于V,都被映射到实数R上。
图函数的梯度:
梯度的意义为,衡量函数在每一个点处,在每个正交方向的变化,如f(x,y,z)
α
f
α
x
=
f
(
x
+
d
x
)
−
f
(
x
)
(
x
+
d
x
)
−
x
\frac{\alpha f}{\alpha x}=\frac{f(x+dx)-f(x)}{(x+dx)-x}
αxαf=(x+dx)−xf(x+dx)−f(x), 在图论中,我们认为一个节点沿着每一条边通向它的相邻节点,每两条边之间相互并没有什么关系,我们认为这个节点的每一条边相互都是正交的。
那么对于一个节点
v
0
v_0
v0,我们认为其梯度是在一条通向
v
1
v_1
v1的边
e
0
1
e_01
e01上的分量为
F
G
(
v
0
)
−
F
G
(
v
1
)
d
0
1
=
(
F
G
(
v
0
)
−
F
G
)
e
01
\frac{F_G(v_0)-F_G(v_1)}{d_01}=(F_G(v_0)-F_G)e_{01}
d01FG(v0)−FG(v1)=(FG(v0)−FG)e01
可以定义如下图网络,依次为网络、矩阵
K
G
K_G
KG(列表示边,行表示接受的节点)、图函数
F
G
F_G
FG,则
K
G
T
f
G
K_G^Tf_G
KGTfG结果如下,可以看出其即为
F
G
F_G
FG梯度的结果。那么根据拉普拉斯算子的定义为其为函数梯度的散度,每个点上梯度的增加和减少,即进入的减去出去的,那么在上面结果的基础上乘
K
G
′
K_G^{'}
KG′,
[
−
1
−
1
0
0
…
1
0
−
1
0
…
⋮
⋮
⋱
]
×
[
10
−
15
⋮
]
=
[
5
58
⋮
]
\Bigg[\begin{array}{ccc} -1 & -1 & 0 &0 &\dots\\ 1 & 0 &-1 &0&\dots\\ \vdots&\vdots&\ddots \end{array} \Bigg]\times\;\Bigg[\begin{array}{ccc}10 \\ -15\\ \vdots\end{array}\Bigg]=\Bigg[\begin{array}{ccc}5 \\ 58\\ \vdots\end{array}\Bigg]
[−11⋮−10⋮0−1⋱00……]×[10−15⋮]=[558⋮]
那么,图论函数的纳普拉斯算子
K
G
′
K
G
T
K_G^{'}K_G^T
KG′KGT
经过观察可以发现其可以表示为: L=D-W
### 1.1.3 谱分解
有了经典的拉普拉斯算子L,对其进行矩阵谱分解,
L
=
U
Λ
U
T
=
U
d
i
a
g
(
λ
i
)
U
−
1
L=U\Lambda U_T=Udiag(\lambda_i)U^{-1}
L=UΛUT=Udiag(λi)U−1
其有以下的性质:
- 拉普拉斯矩阵的n个特征向量是n纬空间中的一组正交基
- 实数拉普拉斯矩阵的特征向量一定是实向量
- 拉普拉斯矩阵的特征之非负
- 图上的拉普拉斯矩阵是图上的一种拉普拉斯算子
还有一个重要的性质,其特征值大小有顺序,其与傅立叶变换中,低频特征和高频特征具有一定的相似性
图
1.2 space
参考
标签:frac,函数,卷积,拉普拉斯,网络,GCN,变换,exp,Bigg 来源: https://blog.csdn.net/weixin_41960098/article/details/112424792