论文粗读"Drug Similarity Integration Through Attentive Multi-view Graph Auto-Encoders"

Ma T, Xiao C, Zhou J, et al. Drug similarity integration through attentive multi-view graph auto-encoders[J]. arXiv preprint arXiv:1804.10850, 2018.

摘要相关

药物相似相的研究对于支持下游的临床任务,如从已知的特性推断新药物的副作用、适应症和相互作用有着很大的推进。随着新型药物特征的日益普及,为学习更全面和准确的相似性带来了新的机会。本文提出从多种类型的药物特征中学习较为准确和可解释的相似性度量方法。具体来说,本文使用多视图图自动编码器对集成进行建模,并添加了注意机制来确定每个视图对应于相应任务和特征的权重,以获得更好的可解释性。

  • 将药物的每个特征看做一个视图
  • 使用多视图GAE来整合学习药物的相似性
  • 对于单个视图使用GCN编码节点特征和边
  • 视图之间则使用基于注意力的选择方案进行非线性融合
模型浅析

本文以药物的每个特征表示作为一个视图。给定视图u \in \{1,\cdots,T\},以每个药物为节点,以两节点之间的相似性作为边。可以得到每个视图的节点特征嵌入表示Z^{(u)},以及样本对之间的相似性A^{(u)}。给定T个不同的视图,多视图相似性整合任务是在全视图中得到统一的节点嵌入Z和相似性矩阵A \in R^{n \times n}

  • Similarity Integration with Attentive Multi-view Graph Autoencoders
    基础的多视图GraphCNN结构
    给定视图u,视图的邻接矩阵和对角阵定义如下:

    并使用两层的GraphCNN来学习节点嵌入表示:
    对应的权重矩阵。对于得到的Z^{(u)},以拼接的方式得到新的节点表示Z。两个节点之间的连接预测由sigmoid函数得到。
    相似矩阵的融合
    该融合的目的是得到一个多视图统一的图矩阵。
    步骤为:
    (1)对每个相似性矩阵A^u进行标准化\hat{A}^u
    (2)邻接矩阵整合\hat{A}=\frac{1}{T}\sum \alpha_u \hat{A}^u, \{\alpha_u\}是融合的权重。
    (3)使用一层GraphCNN去编码图中的节点
    (4)并将嵌入表示进行解码以重构原始的输入空间

    在没有数据标签的情况下,可以使用auto-encoder的重构损失进行约束
    在这种情况下,本文的框架可以看作是一种无监督的多图融合和嵌入方法。所导出的相似度矩阵\hat{A}也可以用于其他任务,如节点聚类。
    基于注意力的视图选择

    假设当前视图的邻接矩阵为A^u,本文给每个视图都分配一个注意力权重g^u \in R^{N \times N}。整合后的邻接矩阵表示为\sum_u g^u \odot A^u\odot是元素的对应相乘。对于每个视图,首先每个原始的邻接矩阵被映射为一个非正则的矩阵g'^u=W^uA^u+b^u,然后对其进行正则化得到g^u。为了降低计算的复杂度,本文将N \times N的邻接矩阵替换为一个对角的注意力矩阵。具体来说,将g^u限制为一个向量,并通过diag(g^u)∗A^u形成加权相似度矩阵。
    进一步的,将注意力权重进行归一化

    g^u=(g^u_1, \dots, g_N^u)被用于得到最后的相似性矩阵
    diag(g^u)是由其生成的对角矩阵。

  • A Semi-supervised Extension Given Partial Labeled Data
    由得到的Z进行节点连接关系的预测,将标签数据应用到模型的训练中:

    其中h(Z) =Softmax(W_hZ + b_h)
    为了进一步在重构的过程中也考虑图的拉普拉斯正则,将前面L_{ed}替换为带有权重的图结构正则。表示为L_{lap}=\sum_{i,j}A_{i,j}||h(x_i)-h(x_j)||^2,该目标函数用GAE的重建损失取代了第二项,也显式地建模了图的结构信息。


总的来说没有新的操作,可能也是因为这是18年的论文。但是想法很巧妙,对A矩阵的操作可以更好的挖掘节点之间的连接关系。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容