论文|计算机视觉经典论文总结(更新中)

  平时总是在跟踪学习最新的文章,顶多在计算机视觉一个小的领域深挖几年。但慢慢发现不管有多新,归根结底还是对经典论文的扩展,经典论文的很多开创性思想,值得好好学习。
  下面对计算机视觉的经典论文进行一些小小的总结。

卷积网络

1.[vgg]Very Deep Convolutional Networks for Large-Scale Image Recognition

Author:Karen Simonyan & Andrew Zisserman(Oxford)

Solution:

证明了增加网络层数,可以提升神经网络性能。

Method:

  • 小卷积核。采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5)。例如,使用2个3x3的卷积核代替AlexNet中1个5x5卷积核,如图1所示。这样对于同样大小的感受野,2层的非线性强于1层,同时参数量也更少(2个3x3的卷积核的参数是18,1个5x5卷积核的参数是25)。
    图1 2个3x3代替1个5x5

    3个3x3卷积核可以来代替7x7卷积核的原理类似。

  • multscale strategy 进行训练和测试
    训练时,由于vgg网络的输入是224x224,对尺寸不同的输入图像先resize再crop到224×224,理论上只需要将图像最短的边resize到大于等于224即可进行crop。文章中设置了2种scale方式,第一种resize到256或384,第二种随机resize到[256,512]之间。
    测试阶段使用了两种预测方式:
    使用multi-view crop,即测试时输入的图像和训练的图像大小一样,从resize之后的图片,crop不同位置的块,分别输入训练好的网络,最后对softmax进行平均。
    使用dense evaluation,即将原图直接送到网络进行预测,将最后的全连接层改为1x1的卷积,这样最后可以得出一个预测的score map,再对结果求平均。
    multi-view crop 效果好于dense evaluation。

2. [ResNet]Deep Residual Learning for Image Recognition

Author:何恺明、张祥雨、任少卿和孙剑(微软研究院)

Solution:

  • 解决了深度网络的退化问题。当网络达到一定深度,已经最优化,那么再继续增加深度时,模型训练误差反而会提高。
  • 解决了梯度爆炸/消失问题。之前的网络都是通过增加网络深度(层数)来提高性能,但是在反向传播过程中,对激活函数进行求导,如果此部分大于1,那么层数增多的时候,最终求出的梯度更新将以指数形式增加,即发生梯度爆炸,如果此部分小于1,那么随着层数增多,求出的梯度更新信息将会以指数形式衰减,即发生了梯度消失,从而使得深度学习模型很难训练。(具体原因可以参考这篇博客)

Method:

  • Residual Block。在resnet中,学习的是残差函数F(x) = H(x) – x,这样其原始的学习特征是H(x)=F(x)+x。所以当残差F(x)=0时,此时堆积层仅仅做了恒等映射(即H(x)=x),至少网络性能不会下降,但实际残差不会为0,这也会使得堆积层在输入特征基础上学习到新的特征,从而拥有更好的性能。残差学习的结构如图2所示。


    图2 residual block
  • Global Average Pooling(不是本文的创新,但文中用到了这个方法️)。使用GAP来取代了最后的全连接层,直接实现了降维,极大减少了网络的参数,对整个网络从结构上做正则化防止过拟合,但却降低了收敛速度。图3中展示了全连接与全局均值池化的对比,例如最后的一层的数据是10个6x6的特征图,全连接层是将10个6x6的特征图flatten成一个1x360的特征向量,进行全连接,输出1x10,送入到softmax的分类中进行计算,得参数量是360x360x10,参数量过大,从而造成计算量加大速度低和过拟合。相比较GAP是将每一张特征图计算所有像素点的均值,输出一个数据值,这样10 个特征图就会输出10个数据点,将这些数据点组成一个1x10的特征向量,送入到softmax的分类中进行计算,直接实现了降维,极大减少了网络的参数。


    图3 全连接与全局均池化的差异对比

参考文献:https://zhuanlan.zhihu.com/p/31852747

GAN

1. [GAN]Generative Adversarial Network

Author:Ian J. Goodfellow, Jean Pouget-Abadie∗, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair†, Aaron Courville, Yoshua Bengio‡

Solution:

提出了一个通过对抗过程来评估生成模型的新框架。解决了:

  • 深度生成模型(任务是学习概率密度并且生成数据)在求解真实数据概率密度分布的过程中有很大难度,用最大似然估计和相关策略求解概率几乎无法进行。
  • 将piecewise linear units用在生成模型上比较难

Method:

  • Adversarial nets。同时训练两个模型:生成模型G用于估计数据分布,判别模型D来预测一个样本是来自训练集(真实数据集)而非G的概率。对于G来说训练过程就是要使D判断错误的可能性最大化。Adversarial nets框架如图4所示。

    图4 网络框架.png

    其中,x_{fake}=G(z;θ^{(G)})即G的输入是噪声z(符合特定分布),输出假图x,而θ^{(G)}则是生成器G里待训练的权重集合;D(x;θ^{(D)})∈[0,1]即D的输入是x(分为x_{fake}x_{real}),D判断输入的x是真是假的概率,输出一个范围在[0,1]之间的数,θ^{(D)}则是辨别器D里待训练的参数集合。我们希望希望相应的D(x_{real})越大越好(接近1),而D(x_{fake})越小越好(即D(G(z))接近0);G是希望D(x_{fake})越大越好(即D(G(z))接近1。

  • Minimax two-player game(Loss)


表示真实样本与假样本的差异程度,对于生成器G来说,希望尽可能减小这个差异(min),对于判别器D来说希望能尽量拉大这个差异(max)。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,732评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,496评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,264评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,807评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,806评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,675评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,029评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,683评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,704评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,666评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,773评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,413评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,016评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,204评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,083评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,503评论 2 343

推荐阅读更多精彩内容