笔记 | Reading Notes:Alex-Net《ImageNet Classification with Deep Convolutional Neural Networks》

首先介绍文中所用到的数据集:

    (1)文中所用到的数据集是来自于ImageNet数据集的ILSVRC(ImageNet Large-Scale Visual Recognition Challenge)数据集,数据集中共1000个类别每个类别大约1000张图片,其中约120万张训练集图片,5万张验证集图片,15万张测试集图片。用于文中的数据集为ILSVRC-2010,此外ILSVRC还有ILSVRC-2012数据集,在文中也涉及到了2012版数据集,但此数据集是不可获得的。

(2)因为ImageNet数据集中的图片包括多种分辨率,但是文中实验需要固定分辨率图片,所以在实验前会对使用的图片数据进行处理(少则调整,然后下采样),将图片统一为256*256分辨率,除此之外没有其他处理,直接使用RGB图片进行训练。

Alex-Net架构:

(1)Alex-Net整体网络结构如下图所示:

Alex-Net整体结构图

    Alex-Net整体网络层次:卷积层1——>局部响应归一化层1——>最大池化层1——>卷积层2——>局部响应归一化层2——>最大池化层2——>卷积层3——>卷积层4——>卷积层5——>最大池化层3——>全连接层1——>全连接层2——>全连接层3(1000softmax输出)

(2)在第三节(The Architecture)部分,作者根据他所认为的在Alex-Net中一些创新或者不同寻常的部分的重点,当然这只是在论文发表当时作者的观点,现在其中一些技术已经得到了广泛的应用。

    <1>ReLU Nonlinearity(线性整流函数):简单用公式来说就是f(x)=max(0,x)这里引用另一文献中的一幅图片来介绍ReLU,来源在图片介绍部分包含。图中右面部分与文中图片完全一致,这部分图片所体现的也是文中采用ReLU作为激活函数的主要原因,采用ReLU作为激活函数可以加速训练。

ReLU介绍图

<2>Training on Multiple GPUs(多GPU训练):文中采用了两块3G内存的GTX580GPU,原因是单个GPU计算和存储能力有限同样也会限制所训练神经网络的规模,而采用多GPU可以训练更大规模的神经网络,在技术实现过程中各将一半的神经元节点放置于两块不同的GPU(我的理解:同样道理可以推广到使用更多块GPU),使不同层的神经元只能和特定层的神经元进行通信(也就是连接),比如文中说明3层只能和2层连接,而4层只能和与它同在一块GPU的层连接。采用这个技术使测试结果的TOP1和TOP5错误率(TOP1错误率指对一张图片的分类概率最大的类恰恰是正确的类,而TOP5错误率指概率最大的5个类中包含正确的类)分别降低了1.7%和1.2%。

<3>Local Response Normalization(局部响应归一化):

局部响应归一化的符号表达

局部响应归一化可以归纳为以上的符号表达,其中i代表第i个kernel(核),(x,y)表示对应的位置,n表示在第i个核的相同位置邻近的kernel map(核)的数目,N表示该层kernels(核)的总数目,其中的k,n,alpha,beta都是人工设置的超参数,文中采用k=2,n=5,alpha=10的-4次方,beta=0.75。采用这个技术使测试结果的TOP1和TOP5错误率分别降低了1.4%和1.2%。

<4>Overlapping Pooling(重叠池化)

所谓重叠池化就是再吃化过程中每一个池化单元之间有重叠的部分(传统池化是没有重叠的),采用这个技术使测试结果的TOP1和TOP5错误率分别降低了0.4%和0.3%。

(3)在第四节Reducing Overfitting(降低过拟合)部分,开始作者介绍了因为神经网络参数众多,所以需要考虑到过拟合问题,下面介绍了两种用于降低过拟合的方法:

<1>Data Augmentation(数据扩充):在数据扩充部分又分为两个方法。其一是对图片进行图像转移(随机抽取224*224小块)和图像取镜像;其二是对图像的RGB像素值进行PCA(主成分分析)。整个数据扩充使TOP1错误率降低了超过1%.

<2>Dropout(丢弃):在Alex-Net中,前两个全连接层使用了Dropout技术,用以降低过拟合,关于Dropout可以自行查看网络资源或其他文献资料。

(4)第五节Details of learning(学习训练)中,介绍了Alex-Net采用的随机梯度下降进行训练,batch为128,momentum(学习率)为0.9,weight decay(权重衰减)为万分之5。具体公式不在此列出,大家可以查看原文。在训练过程中使用120万图片循环训练了大约90次,使用两块GTX580(3G)训练了五到六天。

(5)Result(测试结果):在ILVRC-2010数据集数据集中,TOP1错误率和TOP5错误率分别为37.5%和17.5%。在之前该数据集的TOP1错误率和TOP5错误率分别为47.1%和28.2%,当时公开的TOP1错误率和TOP5错误率分别为45.7%和25.7%。在ImageNet2009数据集(10184类890万张图片)上TOP1错误率和TOP5错误率分别为67.4%和40.9%,当时此数据集基线TOP1错误率和TOP5错误率分别为78.1%和60.9%


注:第一次写文献阅读笔记,且本人英语水平一般,所以可能存在众多错误与不足,希望大家谅解并给与批评指正。另外在阅读文献过程中不可避免的会参考一些网络资源,虽然已尽力尊重原文避免网络资源的影响,但仍然会有一些影响,感谢那些提供资源的前辈。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 221,135评论 6 514
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,317评论 3 397
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 167,596评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,481评论 1 296
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,492评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,153评论 1 309
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,737评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,657评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,193评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,276评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,420评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,093评论 5 349
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,783评论 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,262评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,390评论 1 271
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,787评论 3 376
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,427评论 2 359

推荐阅读更多精彩内容