论文阅读"COMPLETER: Incomplete Multi-view Clustering via Contrastive Prediction"

Lin Y, Gou Y, Liu Z, et al. COMPLETER: Incomplete multi-view clustering via contrastive prediction[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021: 11174-11183.

摘要翻译

本文研究了不完整多视图聚类分析中两个具有挑战性的问题,即i)如何在没有标签的帮助下,如何在不同视图之间学习信息丰富和一致的表示 ii)如何从数据中恢复缺失的视图。为此,作者提出了一个新的目标,使用信息论的观点将表示学习和数据恢复整合到一个统一的框架中。具体地说,通过对比学习,最大化不同视图的互信息,来学习信息和一致的表示;通过对偶预测,最小化不同视图的条件熵来恢复缺失的视图。据我们所知,这可能是第一个提供一个统一的理论框架的一致性表示学习和跨视图数据恢复的工作。

Intro学习
  • 作者针对不完整多视图学习中的两个典型问题,寻找到了不完全多视图聚类的数据恢复和一致性学习具有内在的联系,并将其优雅地统一到信息论的框架中。
  • 提出的方法具有一种新的损失函数,利用对比损失和双预测损失实现了信息一致性和数据可恢复性。
模型浅析
总体模型图

在上述模型图中,双视图数据被用作示例。如图所示,该方法包含三个联合学习目标,即视图内重建、跨视图对比学习和跨视图dual预测。具体地说,视图内重建目标旨在将所有视图投影到特定的空间中,最小化视图内部的重建损失。通过最大化Z1和Z2之间的互信息,实现了跨视图对比学习目标---以获得视图间的一致性信息。跨视图dual预测目标利用两个映射G(1)和G(2),通过最小化条件熵H(Zi|Zj)从另一个视图中恢复一个视图。下面从介绍总体的损失函数开始,逐一介绍各个子模块。

总体的损失函数

给定n个实例的不完整的多视图数据集\overline{X}=\{ \overline{X}^{1,2}, \overline{X}^{1}, \overline {X}^{2} \},其中\overline{X}^{1,2}, \overline{X}^{1}, \overline {X}^{2}分别表示包含两个视图中的样本、仅仅包含第一个视图和仅仅包含第二个视图中的样本。包含全部视图表示的样本总数为m,X^v是视图v\overline{X}^{1,2},所以有\overline{X}^{1,2}=\{ X^1, X^2 \}

符号 说明
L 总体损失
L_{cl} 跨视图对比损失
L_{pre} dual预测损失
L_{rec} 视图内重建损失
\lambda_1 L_{pre} 的平衡因子
\lambda_2 L_{rec} 的平衡因子

因此总体损失对应于模型的子模块,也分为如下三部分:
视图内重建

对于多视图数据的每个视图,作者将数据通过一个自动编码器,通过最小化重构损失来学习潜在的中间表示Z^v:


其中X^v_t表示X^v的第t个样本。f(v)g(v)分别表示第v个视图的编码器和解码器。因此顺理成章有:

并且在视图内重构的结尾,作者写到:

It should be pointed out that the autoencoder structure is helpful to avoid the trivial solution.

跨(交叉)视图对比学习

为了学习一个在不同视图之间共享的视图表征,作者引入了对比学习。作者从信息论的观点出发,直接最大化了不同视图表示之间的互信息:

其中,I表示互信息,H为信息熵,参数α设为9,以便在实验中正则化熵。
对此,作者给出了如下的解释:
(1) 一方面,从信息论来看,信息熵是一个事件所传递的平均信息量。因此,一个更大的熵H(Z^i)表示一个信息更丰富的表示Z^i
(2) 另一方面,H(Z^1)H(Z^2)的最大化将避免了将所有样本分配给同一簇的平凡解。
而对于互信息部分,作者首先定义了变量z和z‘的联合概率分布P(z, z’)。由于softmax函数堆叠在编码器的最后一层,Z^1Z^2的每个元素都可以看作是一个给定类簇的概率。换句话说,Z^1Z^2可以理解为两个离散的类分配变量z和z‘在D个类上的分布,D是潜在变量Z^1Z^2的维度。因此,P(z, z‘)被定义为P∈R^{D×D}:

设Pd和P‘d表示边际概率分布P(z=d)和P(z’=d‘),它们可以通过对联合概率分布矩阵的第d行和第d列求和得到 P。为了表示z和z‘具有同等的重要性,P通过(P+P^T)/2进一步计算。
其中,P_{dd'}P的第d行和第d'列处的元素,α为(4)中定义的熵的平衡参数。
这里挖个坑,(4)-(6)式的推导,以后在这里补上。。

跨(交叉)视图dual预测

具体地说,在一个由神经网络参数化的潜在空间中,另一个视图将通过最小化熵H(Z^i|Z^j)来预测特定于视图的表示,其中i=1,j=2或i= 2, j = 1.

To learn consistent representations, it is encouraged to maximize I(Z1, Z2). In addition, minimizing the conditional entropy H(Zi|Zj ) (blue area) will encourage the recovery of missing view because Zi is fully determined by Zj if and only if the conditional entropy H(Zi|Zj) = 0, where i = 1, j = 2 or i = 2, j = 1. Subtly, on the one hand, the maximization of I(Z1, Z2) could increase the amount of the shared information, thus the data recoverability could be benefited, i.e., it is easier to recover one view from the other. On the other hand, as H(Zi|Zj) quantifies the amount of information of Zi conditioned on Zj, the minimization of H(Zi|Zj) will encourage to discard the inconsistent information across-views, and thus the consistency could be further improved. With the aboveobservation, cross-view consistency and data recovery are treated as two sides of one coin under the above unified information theory framework.
总得来说,最大化两个视图之间的互信息,和最小化两个视图之间的条件熵,会使得整个目标变的一致---学习一致的、共享的视图表示信息。

简而言之,当且仅当条件熵H(Z^i|Z^j)=-E_{P_{Z^i, Z^j}}[logP(Z^i|Z^j)]=0时,Z^i完全由Z^j来决定。为了解决这一目标,一种常见的近似方法是引入一个变分分布:

最大化变分分布
其实是对
下界的操作,即:

在实验中,作者选用了高斯分布作为变分分布,
显然,G^{(j)}(\cdot)可以是将Z^j映射到Z^i的参数化模型,σI为方差矩阵。
通过忽略由高斯分布得到的常数,一定程度上,最大化
等价于

给定一个双视图数据集,可写成:

note: 需要指出的是,如果上述损失不和视图内重构损失一起使用,可能导致Z^1Z^2等于相同的常数,而整个模型失效。

模型收敛后,通过上述dual映射,很容易预测\overline Z ^{j}中缺失的表示\overline Z ^{i}


在预测出完整的多视图表示后,作者将来自特定视图的表示拼接到一起,使用传统的k-means得到聚类结果。


在整体的模型中,将学习视图间的一致性表示和不完整视图的重建统一到一个框架中,并使用各视图的重建损失约束视图的不全过程,不至于算法失效。多视图表示的结合没有进行拓展,聚类阶段只使用了简单的k-means。
整体思路值得学习。在多源任务上的思考,因为没有交织视图的引导,对多源任务不太友好。

我会来填坑的
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,752评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,100评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,244评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,099评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,210评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,307评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,346评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,133评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,546评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,849评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,019评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,702评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,331评论 3 319
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,030评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,260评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,871评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,898评论 2 351