SimCLR V2论文速览——笔记

原讲解视频地址

真诚的向大家推荐这个UP主,论文讲述的方法清楚,脉络清晰,听君一席话胜读十年书。

论文题目:Big Self-Supervised Models are Strong Semi-Supervised Learners(SimCLR v2)

论文地址:http://arxiv.org/abs/2006.10029

代码:https://github.com/google-research/simclr

前序讲解论文:SimCLR

真谛:换了更大的模型,取得了更好的performance。(作者肯定不会这么说,所以增加了知识蒸馏的部分。)

在非监督的环境下,训练好一个大的模型,然后按照有监督的方法进行finetune,得到强的分类器。然后用这个分类器教小的网络,这样我们就可以使用低成本将大量没有标记的数据,还有训练好的大的网络的知识,灌入小的网络中。

目录:1.Methodology 2.Results & conclusion

1. Methodology

本文提出的模型分为三个部分。

(1)首先是将SimCLR作为backbone,将没有标记的样本放入大的CNN中(这个CNN就是用于做pretrain,并没有做具体的优化)相对于原作而言 1.增大了CNN 2. 作者加入了几层hidden layers到projection MLP中。对比学习部分使用的依旧是contrastive loss,与原作一样的loss函数。经过这一步我们可以得到unsupervised pretraining。

(2)加入label。针对image classification任务做fine-tuning。这一步是标准的有监督的学习。这一步之后我们可以得到一个很强的classifier,也即是teacher network。

(3)然后使用teacher network教一个尺寸比较小的,专门用来做classification的网络。具体来说就是teacher network在unlabeled data上生成Pseudo label,并作为ground truth。输入给student network。

具体在知识蒸馏这一步我们使用什么样的loss呢?

图1 loss

是典型的cross enropy。里面的概率也是与softmax非常接近的,其中的temperature是超参。不仅仅可以用teacher network中产生的label,也可以输入gt(ground truth)让student network判断。结合知识蒸馏的loss和gt的loss,就可以构成一个完整的loss。\alpha就是这两项的trade off。

2. Result

图2 结果图

模型越大效果越好,label使用的效率越高。

图3 结果图

随着projection head的层数增加效果会逐渐变好。(尤其是在label较少的情况下。)

从哪里开始fine-tune?

实验验证,从第一层hidden layer开始比直接从representation开始效果好。但是如果使用的样本很多,还是从representation开始效果好。

图4

distillation 使用unlabel的data可以提升准确率。(distillation起到了重要的作用)

图5

附录有许多有意思的发现,可以读读。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,496评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,407评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,632评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,180评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,198评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,165评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,052评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,910评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,324评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,542评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,711评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,424评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,017评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,668评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,823评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,722评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,611评论 2 353

推荐阅读更多精彩内容