【CV论文笔记】Learning to Compare Image Patches via Convolutional Neural Networks

本文主要用于介绍一种度量图片相似度的方法。本笔记主要为方便初学者快速入门,以及自我回顾。

论文链接:http://de.arxiv.org/pdf/1504.03641

基本目录如下:

  1. 摘要
  2. 核心思想
  3. 总结

------------------第一菇 - 摘要------------------

1.1 论文摘要

在本论文中,我们提出了直接从图像数据中学习到的一种比较图片相似度的方法(而不是借助一些人为构建的特征)。图片相似度的比较方法是在机器视觉领域中最基础的一个问题。为了构建这样一个方法,我们采用了一种基于CNN的模型,该模型是用各种形态各异的图片训练出来的。在最后,我们还探索了多种不同的网络架构,都十分适用于这种任务。实验表明,这种训练方法及网络架构能够极大的提升一些机器视觉领域的基础问题准确率。

------------------第二菇 - 核心思想------------------

2.1 核心思想
2.1.1 背景介绍

比较一组图片中某一块的相似度应该是在机器视觉领域最基础的任务了。但是实际上,这一任务却是一个极其复杂的问题,因为有太多太多的因素会影响到最终的比对效果。这些因素包括视角的改变啊,背景的光照源不同造成的阴影啊,遮挡等,还有照相机的设置不同等。事实上,过去一段时间,有很多研究图片相似度比对的方法,比如说“SIFT”点,就是一个十分关键的图像特征点。但是,这种人为构建特征的办法根本并不能应付各种复杂的情况。同时,在现今,我们有大量可以轻而易举获取的高质量的图片数据集合,能否利用好这些数据集,去自动学习出一种图片相似度的比较方法呢?

本文最大的目标就是提出一种训练方法来解决上述提到的问题。

2.1.2 基础模型架构
2.1.2.1 Siamese & Pseudo-Siamese

在介绍本文的模型结构之前,大家有必要先行了解一下在此之前更为出名的孪生神经网络架构,其中,根据是否共享同一网络层,又可分为孪生网络和伪孪生网络。具体架构图如下所示(右图),

basic network architectures.jpg

简单来说,就是将一组图片分别输入到网络架构之中,然后经过一系列的特征提取操作,生成这组图片(通常是2张的)的特征向量,再输入到最终的decision network(通常就是全连接层)。通常如果是同一类型的数据,我们都会共享网络权值;而如果是不同类型的数据(比如说,图片和文字的匹配,长文本和标题的匹配等),我们都会采用不同的网络架构来提取特征,但最终的判别网络还是一致的。

更多具体的介绍,可以看我的另一篇笔记

2.1.2.2 2-channel

本文提出了一种新的架构,不同于孪生网络是对单张图片分别提取特征,再在最后一层进行辨别,新的架构在一开始就将2张图片“合并”在了一起。

简单来讲,就是将单通道的两张灰度图,进行拼接,那输入的数据就变为了“2-channel”,直接输入到之后的卷积特征提取层。这样做的好处是,在一开始的特征提取阶段,网络就能够同时对两张图片的特征进行了处理,从而能够更好的对两张图片的相似度进行判别。而实验数据也表明,在一开始的阶段对两张图片就进行处理,最终得到的结果会更好~(ps.弱弱的说一句,虽然这样训练出的整套网络架构是一个更好但辨别器,但这样就无法训练出一个图片特征提取器了)

2.1.2.3 其他训练优化方法 - Deep Network

这其实算是网络架构设计的一个小技巧,即将非常大的卷积结构都替换成为更小的3*3的卷积核,有兴趣的同学可以参考相关的论文(https://arxiv.org/abs/1409.1556

2.1.2.4 其他训练优化方法 - Central-surround two-stream network

就跟这个名字暗示的一样,新提出的架构包含2个输入流,中心的和边缘的。

整体的架构如下图所示,

A central-surround two-stream network.jpg

其中一个分支的输入为裁剪整张图片的中心区域(即假设输入是6464的,那就按最中心去裁剪出3232的),另一个分支的输入就是对图片的降采样,变为原来的一半(即假设输入是6464的,那就降采样为3232的)。整个特征提取的过程,就是由这两部分分别输入到同一网络架构中,最后进行拼接,再输入到最后的决策网络中~

之所以这样操作的原因是能够引入图片的多尺度特征(该项处理被证实在图片识别任务中是十分有效的),另外,之所以特地截取出图片的中心区域,也是考虑到图片的中心区域往往是更具有比较意义的,特征会更鲜明突出一点。

2.1.2.5 SPPNet池化层

SPPNet池化的处理其实本质上也是引入了多尺度的特征融合,这一层是加入到网络的决策层之前,对特征进行融合的。更多有关SPPNet的解释,可以参考我的另一篇论文笔记

2.1.3 损失函数设计

论文中采用的是hinge-based loss + L2 正则,应该说是比较好理解的。

Loss Function.jpg

至此整套网络架构及几个比较好的优化点已经全部讲明白了。进一步的实验过程及结论就自行看论文吧。

------------------第三菇 - 总结------------------

3.1 总结

到这里,整篇论文的核心思想已经说清楚了。本论文主要是提出了一种新的用于衡量图片相似度的模型架构及一些训练方法的优化,并实验证明了其可行性,为后续发展奠定了基础。

简单总结一下本文就是先罗列了一下该论文的摘要,再具体介绍了一下本文作者的思路,也简单表述了一下,自己对整套网络架构及优化的理解。希望大家读完本文后能进一步加深对该论文的理解。有说的不对的地方也请大家指出,多多交流,大家一起进步~😁

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,463评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,868评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,213评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,666评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,759评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,725评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,716评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,484评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,928评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,233评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,393评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,073评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,718评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,308评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,538评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,338评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,260评论 2 352

推荐阅读更多精彩内容