万字长文带你入门 GCN( 五 )


其中 , D 为度矩阵 , W 为考虑权值的邻接矩阵 。
考虑归一化后的拉普拉斯矩阵:
以上为常规操作 , 不过介绍到这里不知道大家会不会有一点疑问 。
至少我是有疑问的:图拉普拉斯矩阵为什么要这样定义的?
要想回答这个问题 , 首先我们得了解什么是拉普拉斯算子 。
2.3.1 Laplacian
在数学中 , 拉普拉斯算子(Laplacian)是由欧几里得空间中的一个函数的梯度的散度给出的微分算子 , 通常有以下几种写法: 。 所以对于任意函数 来说 , 其拉普拉斯算子的定义为:
这里引入了一个新的概念——散度 , 这里简单介绍下:
散度(Divergence)是向量分析的一个向量算子 , 将向量空间上的向量场(矢量场)对应到一个标量场 。 散度描述的是向量场里一个点是汇聚点还是发源点 。 值为正时表示该点为发源点 , 值为负时表示该点为汇聚点 , 值为零时表示该点无源 。 散度在物理上的含义可以理解为磁场、热源等 。
回到正文 , 我们看下拉普拉斯算子在 n 维空间中的笛卡尔坐标系的数学定义:
数学表示为各个维度的二阶偏导数之和 。
以一维空间为例:
万字长文带你入门 GCN
本文插图
也就是说二阶导数近似于其二阶差分 , 可以理解为当前点对其在所有自由度上微扰之后获得的增益 。 这里自由度为 2 , 分别是 +1 和 -1 方向 。
再以二维空间为例子:
万字长文带你入门 GCN
本文插图
看到上面可能大家会很可能很陌生 , 但是这个就是图像中的拉普拉斯卷积核:
万字长文带你入门 GCN
本文插图
此时共有 4 个自由度 (1,0),(-1,0),(0,1),(0,-1) , 当然如果对角线后其自由度可以为 8 。
对此我们可以进行归纳:「拉普拉斯算子是所有自由度上进行微小变化后所获得的增益」 。
我们将其推广到网络图中 , 考虑有 N 个节点的网络图 , 其自由度最大为 N , 那么函数 可以是 N 维的向量 , 即:
其中 ,表示函数 在网络图中节点 i 处的函数值 , 类比 为函数 在 (x,y) 的函数值 。
在网络图中 , 两个节点的之间的增益为, 考虑加权图则有, 那么对于节点 i 来说 , 总增益即为拉普拉斯算子在节点 i 的值:
万字长文带你入门 GCN
本文插图
其中 ,为节点 i 的度;上式第二行去掉了 是因为 可以控制节点 i 的邻接矩阵 。
对于任意 都成立 , 所以我们有:
万字长文带你入门 GCN
本文插图
自此 , 我们便给出了图拉普拉斯矩阵的推导过程 , 这个公式的全称为:图拉普拉斯算子作用在由图节点信息构成的向量 上得到的结果等于图拉普拉斯矩阵和向量 的点积 。 拉普拉斯矩阵反映了当前节点对周围节点产生扰动时所产生的累积增益 , 直观上也可以理解为某一节点的权值变为其相邻节点权值的期望影响 , 形象一点就是拉普拉斯矩阵可以刻画局部的平滑度 。
2.3.2 Laplace Spectral decomposition
拉普拉斯矩阵的谱分解就是矩阵的特征分解:
对于无向图来说 , 拉普拉斯矩阵是实对称矩阵 , 而实对称矩阵一定可以用正交矩阵进行正交相似对角化:
其中 ,为特征值构成「对角矩阵」 ,为特征向量构成的「正交矩阵」 。
又因为正交矩阵的逆等于正交矩阵的转置:, 所以我们有:
因为 L 是半正定矩阵 , 我们还可以有:
万字长文带你入门 GCN


推荐阅读