AGNN论文笔记

AGNN: Attention-based Graph Neural Network for Semi-supervised learning (Mar 2018)

Background

These architectures alternate between a propagation layer that aggregates the hidden states of the local neighborhood and a fully connected layer.

AGNN:

  1. 通过移除intermediate fully connected layer,降低模型参数。在半监督学习任务中,标签数据比较少,这种方式可以为设计innovative的传播层留有更多余地;
  2. 在传播层中使用attention mechanisms,动态调节局部信息,以此获得更高的准度。

Contribution

  1. 使用a linear classifier of multinomial logistic regression,移除了intermediate non-linear activation layers, 只保留了图神经网络中的邻接线性传播,这种模型结果可以得到与最好的图模型媲美的结果,同时也表明了图上邻接信息聚合的重要性;

  2. 基于attention mechanisms:

    1. 降低模型复杂度,在每个intermediate layer,只有一个scalar parameter
    2. Discover dynamically and adaptively which nodes are relevant to the target node for clarification

Model

节点特征向量:X = [X_1, ...,X_n]X_i ∈ R^{d_x}
标签:Y_i
有标签的子集: L ⊂V
假设邻近节点更有可能具有相同的标签,损失:L(X,Y_L) = L_{label}(X_L, Y_L) + λL_G(X)

  • 有监督损失:L_{label} = \sum_{i∈L}l(Y_i,f(X_i))
  • 拉普拉斯正则化:L_G = \sum_{(i,j)∈E}||f(X_i)-f(X_j)||^2

邻接矩阵:A ∈\{0,1\}^{n×n}
目标函数:Z = F(X,A) ∈ R^{n×d_y} ,来预测每个节点所属标签,其中:
Z_{ic}:节点i数据标签c的概率

Propagation Layer

第t层的隐层:H^t ∈ R^{n×d_h}
传播矩阵:P∈ R^{n×n}
传播层:\tilde H^t = PH^t,可以是局部平均或者是随机游走:

  • Random walk:
    P = D^{-1} = diag(A1)^{-1}
    \tilde H_i^{t} = (1/|N(i)|)\sum_jH_j^t

单层传播: H^{t+1} =σ(\tilde H^tW^t)

GCN

Is a special case of GNN which stacks two layers of specific propagation and perceptron:

H^1 = ReLU((PX))W^0)
Z = f(X,A) = softmax((PH^1)W^1) = softmax((PReLU((PX))W^0))W^1)
其中:
P = \tilde D^{-1/2}\tilde A\tilde D^{-1/2}
\tilde A = A+I
\tilde D = diag(\tilde A1)
损失:L = -\sum_{i∈L} \sum_{c=1}^{d_y}Y_{ic}lnZ_{ic}

GLN

将GCN的intermediate非线性激活移除,就是GLN:
Z = f(X,A) = softmax((P^2X)W^0W^1)
The two propagation layers simply take linear local average of the raw features weighted by their degrees, and at the output layer, a simple linear classifier( multinomial logistics regression) is applied.

AGCN

GCN的层与层的传播是不变(static)的,并不会考虑到节点的状态(adaptive propagation)。
比如:P_{i,j} = 1 /\sqrt[2]{|N(i)|N(j)},无法知道哪个邻接的节点与分类的节点更有关。
Embedding_layer: H^1 = ReLU(XW^0)
Attention-guided propagation layers: H^{t+1} = P^tH^t
Output row-vector of node i: H_i^{t+1} = \sum_{j∈N(i)} P_{i,j}^tH_j^t
其中:
P_i^t = softmax([β^tcos(H_i^t,H_j^t)]_{j∈N(i)})
cos(x,y) = x^Ty/||x||||y||, ||x||_{l^2}
Attention from node j to node I is: P_{ij}^t = (1/C)e^{β^tcos(H_i^t,H_j^t)}
Add self loop in propagation:
Z = f(X,A) = softmax(H^{l+1}W^1)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
禁止转载,如需转载请通过简信或评论联系作者。
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,039评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,223评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,916评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,009评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,030评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,011评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,934评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,754评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,202评论 1 309
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,433评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,590评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,321评论 5 342
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,917评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,568评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,738评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,583评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,482评论 2 352