Heterogeneous Graph Attention Network

异质图神经网络 HGNN
2019 WWW

方法

  1. 映射节点特征到相同的特征空间中:(因为不同类型的节点的特征向量的规模可能不一样)

h_i是节点原特征向量,h'_i是变换后的该节点特征向量,\phi_i是该节点对应的节点类型,对每一个类型的节点,都有对应的转换矩阵M_{\phi_i}

  1. 进行节点级别的注意力计算和节点聚合:
  • 首先利用自注意力学习重要性e_{ij}^{\Phi},表示的是节点j对于节点i来说有多重要,论文里叫做the importance of meta-path based node pair (i,j),计算公式为:

其中att_{node}是用来实现节点级别注意力的DNN,对相同的元路径,这个att_{node}是一样的;但是e_{ij}^{\Phi}e_{ji}^{\Phi}是不一样的,保留了异质图的不对称性;

  • 接下来计算节点的权重\alpha_{ij}^{\Phi},基于softmax函数实现,对于节点i来说,计算的是nodes\ j \in \mathcal{N}_i^{\Phi}的节点权重,其中\mathcal{N}_i^{\Phi}表示的是the meta-path based neighbors of node i (include itself);计算公式为:

其中\sigma是激活函数,||表示连接操作,a_{\Phi}是针对元路径\Phi的节点级别的注意力向量,这个公式实际上就是对重要性进行了正则化,对节点i来说,分母就是\mathcal{N}_i^{\Phi}的全部重要性;\alpha_{ij}^{\Phi}也是非对称的。

  • 对节点i,计算出全部\mathcal{N}_i^{\Phi}中的节点j的权重\alpha_{ij}^{\Phi}之后,就可以进行聚合了,获得节点i基于元路径的embedding:(应该会有很多条元路径,对每个节点,每个元路径都会聚合出一个embedding来,这个embedding仅能捕捉这个元路径的语义,接下来会需要语义级别的注意力再进行聚合)
  • 把节点级别的注意力再扩展到多头注意力,使训练过程更加稳定,在这里,就是把上述的节点级别注意力重复计算K次,然后连接起来,变成最终的embedding(对多头注意力还不是特别了解,为什么要这么做)
  • 如果给定P个元路径,最终获得P组node embeddings:
  1. 进行语义级别的注意力计算和节点聚合:
  • 语义级别的注意力机制也是通过DNN实现的,论文中记为att_{sem}:

其中,\beta_{\Phi_i}是元路径i对应的权重,\mathbf{Z}_{\Phi_i}是全部节点基于元路径i的embedding,可以看成一个矩阵吧;

  • 计算每个元路径的重要性,通过语义级别的注意力机制实现:

其中,对于元路径i,每个节点都已经计算出了一个embeddingz_i^{\Phi},先将其进行一个非线性的转换,比如上式中就用了一个一层的MLP进行转换,然后用语义级别的注意力向量\mathbf{q}相乘,图中所有节点的平均值就是这个元路径的重要性了;注意其中的\mathbf{W,b,q}都是需要学习的参数,且在整个网络中共享;

  • 将重要性通过softmax进行正则化,获得每个元路径i的权重:


其中,\beta_{\Phi_i}是元路径i对应的权重,\omega_{\Phi_i}是元路径i对应的重要性,\mathbf{P}是元路径的个数;

  • 最终整个异质图每个节点的整体embedding:分元路径的embedding加权求和即可
  1. 通过最终的node embedding完成特定的任务:

拿到final embedding之后,就可以完成具体的任务了,需要根据不同的任务去确定不同的loss function,如完成半监督的节点分类任务,就可以用交叉熵作为loss function:


其中,\mathcal{Y}^l是有标签的所有节点的索引集合,\mathbf{C·Z^l}表示的是分类任务的全部参数和有标签的节点的final embedding的乘积,也就是这些节点的分类结果,而\mathbf{Y^l}是有标签的节点的真实标签,求它们的交叉熵;
最后可以通过BP来优化该网络。

完整算法流程

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

友情链接更多精彩内容