图神经网络过平滑理论综述

GCN over smoothing问题最早应该是《Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning》2018 提出的。在这篇以及后续几篇研究GCN理论的文献都有类似的over smoothing的推导,我整理出来如下:

over smoothing的推导

首先给出GCN的信息传递矩阵\widehat{A}K次幂收敛性的推导。Kipf版GCN形式是:H^{(l+1)}=\sigma \left ( \widehat{A}H^{(l)}W^{(l)} \right )
设对称拉普拉斯矩阵L_{sym}=I_N-D^{-\frac{1}{2}}AD^{-\frac{1}{2}}=U\Lambda U^T=\sum_{i=1}^{N}\lambda _{i}u_{i}u_{i}^{T},其中特征值0=\lambda _1 \leq \lambda _2 \leq \cdots \leq \lambda _N

  1. 先证明L_{sym}的最小特征值是0。不难看出L_{sym} D^{\frac{1}{2}} \textbf{1} = \textbf{0}所以L_{sym}有0特征值以及对应特征向量D^{\frac{1}{2}} \textbf{1},其中\textbf{1}是元素全为1的向量。
  2. 再证L_{sym}的最大特征值小于2。L_{sym}的最大特征值是瑞利商的上确界\lambda _N = \sup_{g}\frac{g^TL_{sym}g}{g^Tg},另f=D^{-\frac{1}{2}}g,那么有\frac{f^TLf}{\left ( D^{\frac{1}{2}}f \right )^T\left ( D^{\frac{1}{2}}f \right )}=\frac{\sum_{(u,v)\in E}\left ( f_u-f_v \right )^2}{\sum_{v\in V}f_{v}^{2}d_{v}} \leq \frac{\sum_{(u,v)\in E}\left ( 2f_{u}^{2}+2f_{v}^{2} \right )}{\sum_{v\in V}f_{v}^{2}d_{v}}=2
    当图G是二分图的时候,不等式的等号成立。由于现实中只要不是太小的图,都几乎不可能是二分图,所以不讨论G是二分图的情况。因此在G不是二分图的假定下证明了L_{sym}的最大特征值小于2。由于\tilde{L}_{sym}L_{sym}都是一个图的对称标准化Lapacian矩阵,区别只在于前者对应的图加上了一个自环,所以\tilde{L}_{sym}的特征值也在[0,2)范围内。关于这部分更详细的讨论可以看Chung的参考书《Sepctral Graph Theory》
  3. 第三步是对\widehat{A}进行矩阵分解。Kipf版GCN,忽略激活函数时有H^{(K)}=\widehat{A}^{K}H^{(0)}\Theta,而\widehat{A}=I_N-\tilde{L}_{sym},所以\widehat{A}^{K}=\left ( I_N-\tilde{L}_{sym} \right )^{K}=\left ( I_N-U\Lambda U^T \right )^{K} =U\left ( I_{N}-\Lambda \right )^{K}U^T=\sum_{i=1}^{N}\left ( 1-\lambda _{i} \right )^{K}u_{i}u_{i}^{T}
    再根据上文讨论的特征值取值范围,可以得到\widehat{A}^{K}的收敛状态:\lim_{K\rightarrow +\infty } \widehat{A}^{K}=u_{1}u_{1}^{T}L_{sym}的0特征值对应特征向量是D^{\frac{1}{2}} \textbf{1},归一化后是u_1=\frac{D^{\frac{1}{2}} \textbf{1}}{\sqrt{M+N}},M是edge数量,N是node数量。因此:\lim_{K\rightarrow \infty } \widehat{A}^{K} \textbf{x} = const \times \begin{bmatrix}\sqrt{d_1+1}\\ \sqrt{d_2+1}\\ \vdots \\ \sqrt{d_N+1}\end{bmatrix}其中常数项const= \frac{1}{M+N}\sum_{j=1}^{N}(\sqrt{d_j+1}x_j)。所以层数很大的时候,输入图信号已经完全被平滑掉了,剩下的只有度的信息,图信号也就很难在欧氏空间线性可分了。这就是over smoothing的根本原因。
    我这个是简化版的证明,没考虑激活函数的情况。最完整的证明见ICLR 2020的《Graph Neural Networks Exponentially Lose Expressive Power for Node Classific》。此文证明了在权重矩阵最大元素乘以Laplacian的最小非零特征值小于1的条件下,GCN随着卷积层增加,图信号会收敛到Laplacian矩阵的零特征值对应特征向量张成的子空间内,这个子空间里图信号是完全损失了的。并且信息的损失速度是层数的指数倍。

over smoothing solution文献综述

  1. 《Representation Learning on Graphs with Jumping Knowledge Networks》2018这篇文献的贡献在于证明了以下几点:a.不同类型的节点的over smoothing速度不一样,越边缘的节点过平滑的速度越慢;b.以D^{-1}A作为信息传递矩阵时,图卷积和随机游走的等价性。其实这个在Chung的图谱理论书里也有讨论了。这篇论文的理论分析很值得一看,不过提出来的Jumping Knowledge Networks模型比较平凡。
  2. 《Predict then Propagate: Graph Neural Networks meet Personalized PageRank》 2018此文从personalized pageRank得到启发,提出了PPNP模型和APPNP模型。如果把图卷积的过程看作一个随机游走过程,\pi是平稳状态,那么有\pi =A\pi。Personalize PageRank算法希望随机游走的过程有一定概率跳转回到原始状态,则有\pi =\left ( 1-\alpha \right )A\pi +\alpha \textbf{i},其中\textbf{i}表示初始状态,也可以理解为输入图信号。因此得到了\pi =\alpha \left ( I_N-\left ( 1-\alpha \right )A \right )^{-1}\textbf{i}。PPNP模型的形式是:Z=softmax\left ( \alpha \left ( I_N-\left ( 1-\alpha \right )\widehat{A} \right )^{-1}H \right ),H=MLP(X)
    X是输入的图信号。如果求矩阵逆的过程复杂度太高,那么将上式的矩阵逆进行泰勒展开,就有了近似PPNP模型,APPNP模型:
    Z^{(0)}=H=MLP(X) Z^{(k+1)}=\left ( 1-\alpha \right )\widehat{A}Z^{(k)}+\alpha H Z^{(K)}=softmax\left ( \left ( 1-\alpha \right )\widehat{A}Z^{(K-1)}+\alpha H \right )
    理论和文中的实验都显示K趋于无穷大时,APPNP模型会收敛到PPNP模型。这个研究挺有创新型的,在citation数据集的分数也超出了GCN不少。
  3. 《simple and deep graph convolutional networks》2020在APPNP的基础上加上了参数矩阵的identity mapping,提出的GCNII模型形式是H^{(l+1)}=\sigma \left ( \left ( \left ( 1-\alpha _l \right )\widehat{A}H^{(l)}+\alpha _lH^{(0)} \right )\left ( \left ( 1-\beta _l \right )I_N+\beta _lW^{(l)} \right ) \right )
    在理论上作者证明了该模型能拟合任意系数的自环拉普拉斯矩阵多项式滤波器,实验表现很亮眼,刷新了3个citation数据集的SOTA分数。我认为APPNP和GCNII都是彻底解决over smoothing的很好的方案。
  4. 除此之外,还有一些研究,我认为是缓解但没有彻底解决over smoothing的,包括:ICLR 2020的文章:DropEdge和PairNorm;Nips 2020的GRAND和GroupNorm,这些我觉得都比较水;KDD 2020有一篇研究提出了DAGNN,大概是一个对每层图卷积的输出进行AttentionPooling,模型没啥创新型,建模思路值得一学,在citation数据集的表现也不错。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,542评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,596评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,021评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,682评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,792评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,985评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,107评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,845评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,299评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,612评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,747评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,441评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,072评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,828评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,069评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,545评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,658评论 2 350

推荐阅读更多精彩内容