原讲解视频地址,本篇是对该视频的笔记。感谢视频UP的讲解,受益颇多!
如果我们只知道一个模型是怎么做的,却不知道它为何这样做,对于我们做科研的人来说是远远不够的。我们必须知其然并且知其所以然,才能够在现有的模型基础上提出自己的想法和改进。
目录 1.GCN基础 2.谱图理论 3.傅里叶变换 4.GCN
1.GCN基础
1.1 同样都是“图”,Graph与Image有什么联系与区别呢?
Image是Graph在欧式空间中的一种特例。Graph是相较于Image来说更加广义的一种拓扑结构。Graph由点和边组成它可以表示任意的事物与事物之间的关系。而Image是表示在欧式空间中的事物与事物之间的关系。我们可以根据Image来构建对应的Graph,将每一个像素作为节点,像素之间的关系作为边。
现实生活中能够建图的场景非常之多,社交关系,词汇搜索等等。
1.2 什么是图神经网络?
图神经网络就是专门用来处理图数据的神经网络架构。具体来说,会给定图的每个邻接矩阵和节点特征,通过将这两个输入进行某种图上的映射。从而得到每个节点下一层的特征。
图神经网络的聚合模式:
合理性:比如社交网络中我们想要获得某一个用户的特征,可以搜集与他相近的人的特征,他们会具有一定的相关性。(近朱者赤,近墨者黑)
许多GNN相关的模型其实都是在设计函数“f”
1.3 GCN模型?
这里我们只讨论简单无向图(图无自环、无重边,边无方向)
公式中的是邻接矩阵+单位矩阵,相当于给每一个节点添加一个自环。是对角阵+单位阵。表示添加自环后每一个节点的度值。代表了每一个节点的度的值。对于对角阵求幂,只要对对角线上的每一个元素求幂即可。
例:
是可训练的参数,是对输入的feature进行线性变换。是非线性的激活函数。
简单理解GCN在做什么:对图的邻接矩阵加了一个自环,做了对称归一化。然后用得到的结果对输入的特征进行聚合。每个节点都聚合到了自己和周边节点加权求和的feature信息。
2. 谱图理论
2.1 什么是谱图理论?
研究与图的邻接矩阵相关的一些性质的领域。将线性代数研究矩阵性质限定在了研究图的邻接矩阵的范围内。谱图理论是线性代数的子领域。
2.2 回顾:线性代数相关知识
(1)特征值与特征向量
对于一个矩阵,如果有其中为标量、。就称是的特征向量,是A的特征值。
(2)定理
如果一个矩阵是一个实对称阵,那么它一定有N个特征值,对应着N个互相正交的特征向量。
,其中,除了对角线上以外其他元素都是0。对角线上的元素都是一个特征值。
(3)半正定矩阵
半正定矩阵就是所有的特征值都大于等于0。
(4)二次型
给定一个矩阵A,左乘x转置,右乘x。就称为向量x对矩阵A的二次型。
(5)瑞利熵
瑞利熵就是一个向量关于矩阵A的二次型与这个向量关于单位矩阵的二次型的比值。
为什么需要研究瑞利熵:因为其与矩阵的特征值有着密切的联系。如我们假定是矩阵A的一个特征向量,那么瑞利熵就是矩阵对应的特征值。
证明如下:
因此瑞利熵是我们研究特征值的重要手段。
2.3 谱图理论基础
(1)与(重要)
是图的拉普拉斯矩阵,。
是拉普拉斯矩阵的对称规范化,。
与都是实对称阵。因此他们都有N个特征值和N个互相正交的特征向量。可以分解为上述的的形式。且这两个矩阵都是半正定的,其特征值都是大于等于0的。
证明:(通过瑞利熵)
如果我们能够证明对于任何的一个向量都有,那么当是特征向量,也即当L是特征值是也成立。
首先,分母部分肯定是恒大于等于0的,因为它是向量x的模长的形式。所以我们只需要证明分子恒大于0即可。
我们定义,它只有在第i行的第i列和第j行的第j列才为1,在第i行的第j列与第j行的第i列都是-1,其他位置都是0。
为什么构造,因为它的二次型非常有特点,对于向量x,关于的二次型为:
所以非常有特点,它的二次型就相当于对x的第i个点和第j个点的坐标位置做差求平方。
拉普拉斯矩阵,因此L的二次型为:
也就是将上式中的与换成了规范化后的与。
一个更加强的性质:不仅而且。
证明:(与上述证明类似)
我们定义,它在第i行的第i列和第j行的第j列,第i行的第j列和第j行的第i列都为1,其他位置为0。
可得的二次型:。
定义。
可得的二次型:。
同理,定义。
可得的二次型:
由
可得
由上述证明我们得出的瑞利熵是的。因此的特征值也是恒的。
3. 傅里叶变换
傅里叶变换其实就是“去研究同一个事物在不同的域之间不同的视角”是怎样的,以及在不同的域之间进行变换。