DINO和DINOv2的注意力

1. DINO

DINO 是 Meta 在2021年提出的一种的自监督学习方法,名称来源于 knowledge
distillation with no labels,即无标签知识蒸馏。

DINO结构图

和其他 inter-view 的自监督方法类似,DINO 将输入图像 x 的两种不同的随机变换 (x_1, x_2) 传递给学生和教师网络,这两个网络具有相同的结构,但参数不同。教师网络的输出以每个 batch 的平均值为中心。每个网络输出一个 K 维特征,用 softmax 进行归一化。然后最小化交叉熵损失,也就是提高教师网络和学生网络参数的相似性。梯度仅通过学生传播,教师参数使用学生参数的指数移动平均值 (ema) 进行更新。

教师网络比学生网络多了一个 centering 操作,用于避免模型崩溃,相当于对教师网络的参数加入了一个可以通过 EMA 更新参数的 bias cg(x) \leftarrow g(x) + c

DINO伪代码

DINO 最惊人的效果是在无监督下学习的模型可以将注意力非常好地集中在物体上,多头注意力中不同的 head 甚至可以关注到同一物体不同的区域或者不同的物体。

无监督训练下的自注意力
多头注意力可视乎

定性结果表明,最后一个注意力层会关注图像中语义一致的部分,并经常产生可解释的注意力图。利用这些特性,建立在 DINO 的基础之上的物体发现算法(如 LOST,Sim´eoni et al.,2021),通过收集注意力图中的信息,在没有监督的情况下检测物体。

2. DINOv2

DINOv2 是在 DINO 基础上用更多数据和更多 tricks 训练出来的,在很多任务上都取得了很好的表现。

但值得注意的是论文中并没有给出像 DINO 论文中一样的注意力可视化图,而是可视乎了图像 patch 的 PCA。

PCA 可视乎

原因就在于 DINOv2 的注意力可视化出来并不如 DINO 一样完美集中在图像物体上,而是在某些 token 上会有异常高的值出现,被称为”伪影“。

在ViT的注意力图谱中观察到的伪影

这些伪影的特点:

  • 高范数值(high norm token)
  • 在大型模型的训练过程中会出现
  • 出现在信息冗余的 patch 上
  • 几乎不包含 local 信息
  • 包含 global 信息

对于这种现象,一种解释是在 ViT 的训练过程中 token 的数量是有限的,因此模型需要充分利用 token,将信息冗余位置的 token 用于储存全局信息。

3. Vison Transformer need registers

模型储存全局信息是件好事,但是我们并不希望丢弃局部信息,因为这有可能损害下游任务的表现。

解决方法就是多加几个 token,让模型用于储存额外的全局信息,这些token被叫做寄存器,具有可学习的参数,在 transformer 的最后一层被丢弃。

加入 register之后的注意力图

加入 register token 之后,[CLS] token 可以很到的集中在图中的主要物体上,而 register 则会关注到一些不同的区域。

加入寄存器机制首次在 Memory Transformers (Burtsev et al., 2020) 中提出,改进了 NLP 中的翻译任务。使用特殊 token 扩展 Transformer 序列在 BERT 中得到了普及(Devlin et al., 2019)。然而,大多数方法添加新 token,要么为网络提供新信息,例如 BERT 中的 [SEP] token,要么收集 token 信息,并使用它们的输出值作为模型的输出,例如分类中的 [cls] token。

而 [reg] token 既不提供信息也不直接用于任务,只是为无处安放的 global 信息提供了一个安放之处,顺便提高了模型的可解释性。

由于这种”伪影“只在大规模训练中出现,我的猜想是,模型有足够多的参数和数据去学习,会从数据中学到很多信息,图像中天然的包含了很多隐含的信息,比如"咖啡应该在咖啡杯里而不是咖啡杯的托盘里”这种抽象又没用的知识,对于下游任务可能毫无帮助,但是对于让模型更加“智能”是很重要的。也许我们需要更多的评估指标去了解视觉模型究竟从数据中学到了什么。

参考:

[1] Caron M, Touvron H, Misra I, et al. Emerging properties in self-supervised vision transformers[C]//Proceedings of the IEEE/CVF international conference on computer vision. 2021: 9650-9660.

[2] Oquab M, Darcet T, Moutakanni T, et al. Dinov2: Learning robust visual features without supervision[J]. arXiv preprint arXiv:2304.07193, 2023.

[3] Darcet T, Oquab M, Mairal J, et al. Vision transformers need registers[J]. arXiv preprint arXiv:2309.16588, 2023.

[4] 代码: https://github.com/facebookresearch/dinov2

[5] (这个也是我) https://bigfishtwo.github.io/posts/dinos/

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,616评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,020评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,078评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,040评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,154评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,265评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,298评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,072评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,491评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,795评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,970评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,654评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,272评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,985评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,223评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,815评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,852评论 2 351

推荐阅读更多精彩内容