Wang Y, Chang D, Fu Z, et al. Consistent multiple graph embedding for multi-view clustering[J]. IEEE Transactions on Multimedia, 2021.
摘要导读
基于图的多视图聚类旨在在多个视图中获得数据的划分,在近年来受到了广泛关注。虽然已经为基于图的多视图聚类做出了很大的努力,但是将各个视图的特征融合到一起以学习用于聚类的共同表示仍然是具有挑战性的。本文提出了一种新颖的一致性多图嵌入聚类框架(CMGEC)。具体来说,设计了一个多图自编码器(M-GAE),使用多图注意力融合编码器灵活地编码多视图数据的互补信息。为了引导学习到的共同表示维持每个视图中邻近特征的相似性,引入了多视图互信息最大化模块(MMIM)。此外,设计了一个图融合网络(GFN),用于探索不同视图的图之间的关系,并提供M-GAE所需的共识图。通过联合训练这些模型,可以获得共同表示,该表示编码了更多的多视图互补信息,并更全面地描述了数据。
模型浅析
提出的CMGEC,主要由三个部分组成 : Multiple Graph Auto-Encoder(M-GAE), Multi-view Mutual Information Maximization module (MMIM), and Graph Fusion Network (GFN).
- M-GAE
- Multi-Graph Attention Fusion Encoder
每个视图都对应一个GCN层,以作为输入得到第一层的的表示: - View-Specific Graph Decoders
用共有表示来解码每个视图的图表示: - Reconstruction Loss
计算原始和之间的差异性:
- Graph Fusion Network
作者这里使用的是一个全连接层来获取不同视图之间的关系以获取全局的节点关系,最终结果是产生一个共识图。第层的图融合网络表示如下:
为结合每个图中的特征使得获得的共识更加适用于聚类,GFN的损失函数设计为如下: - Multi-View Mutual Information Maximization
根据谱聚类的性质,样本之间的信息用来引导AE来学习聚类友好的表示。
最终的损失函数变成了:
第一次看到用MLP进行图融合的,感觉很有意思。其中的一些小trick还是很有趣,比如说参数共享的multi-graph attention fusion layer。