TASK 5 AlexNet与VGG

1. AlexNet

1.1 卷积层尺寸计算

全0填充时


对应tensorflow的padding="SAME"
不填充时
image.png

对应Tensor的padding="VALID"

1.2 LRN层

深度学习的局部响应归一化LRN(Local Response Normalization)理解
【深度学习技术】LRN 局部响应归一化

1.2.1 LRN的灵感来源

在神经生物学有一个概念叫做侧抑制,指的是 被激活的神经元抑制相邻的神经元。归一化(normalization)的目的是“抑制”,局部响应归一化就是借鉴侧抑制的思想来实现局部抑制,尤其当我们使用ReLU的时候,这种“侧抑制”很管用。

1.2.2 LRN的好处

增强泛化能力,做了平滑处理。
由于LRN的侧抑制机制,响应比较大的值会相对更大,提高了模型泛化能力。可以使识别率提高1%~2%。

1.2.3 LRN的争议

对于LRN是否有效,还存在着很多争议。其实现在更多人愿意选择batch normalizationDropOut的方式,LRN并不流行。
在2015年Very Deep Convolutional Networks for Large-Scale Image Recognition.提到LRN基本没什么用。

局部响应归一化原理是仿造生物学上活跃的神经元对相邻神经元的抑制现象(侧抑制)

1.2.4 公式

局部响应归一化原理是仿造生物学上活跃的神经元对相邻神经元的抑制现象(侧抑制),然后根据论文有公式如下


  1. a_(x,y)表示某个点(a,b,c,d)
  2. k,n/2,α,β都是自定义的参数
  3. ∑叠加的方向是沿着通道方向的
    如果看不懂可以看下文的举例

1.2.5 实验举例

代码如下

import tensorflow as tf
import numpy as np
x = np.array([i for i in range(1,33)]).reshape([2,2,2,4])
y = tf.nn.lrn(input=x,depth_radius=2,bias=0,alpha=1,beta=1)

with tf.Session() as sess:
    print(x)
    print('#############')
    print(y.eval())

输出结果如下


结果解释:
这里要注意一下,如果把这个矩阵变成图片的格式是这样的


然后按照上面的叙述我们可以举个例子计算一下。
比如26对应的输出结果0.00923952计算如下
26/(0+1*(25^2 + 26^2 + 27^2 + 28^2 ))^1

17对应的输出结果0.017453计算如下
17/(0+1*(17^2 + 18^2 + 19^2 ))^1

20对应的输出结果0.018433计算如下
20/(0+1*(18^2 + 19^2 + 20^2 ))^1

1.2.6 总结

LRN是在AlexNet中首次提出,试图通过侧抑制的方法提高其泛化能力。但是否有效还存在较大争议,并不是流行的做法。不管是国内还是国外,网上对它的讨论也并不热烈,个人认为了解即可。

1.3 AlexNet的其它特点

1.3.1 Dropout层

训练时使用Dropout随机忽略一部分神经元,以避免模型过拟合。Dropout虽有单独的论文论述,但是AlexNet将其实用化,通过实践证实了它的效果。在AlexNet中主要是最后几个全连接层使用了Dropout。

1.3.2 最大池化

在CNN中使用重叠的最大池化。此前CNN中普遍使用平均池化,AlexNet全部使用最大池化,避免平均池化的模糊化效果。并且AlexNet中提出让步长比池化核的尺寸小,这样池化层的输出之间会有重叠和覆盖,提升了特征的丰富性。

1.4 架构

代码参考AlexNet implementation + weights in TensorFlow
AlexNet各层的架构如下:

  1. [227 * 227 * 3]输入层。图片边长为227,深度(channel)为3。
  2. [57 * 57 * 96]卷积层1。 96个11 * 11 * 3卷积核,步长为4,全0填充。因此输出边长为ceiling(227 / 4) = 57。
  3. [57 * 57 * 96]lrn层1。做“侧抑制”,矩阵尺寸无变化
  4. [28 * 28 * 96]maxpool1。池化尺寸为3 * 3,步长为2,不填充。因此输出的边长为ceiling((57 - 3 + 1) / 2) = 28,channel数不变。
  5. [28 * 28 * 256]卷积层2。256个5 * 5 * 96卷积核,步长为1,全0填充。因此输出边长为ceiling(28 / 1) = 28。
  6. [28 * 28 * 256]lrn层2。做“侧抑制”,矩阵尺寸无变化
  7. [13 * 13 * 256]maxpool2。池化尺寸为3 * 3,步长为2,不填充。因此输出的边长为ceiling((28 - 3 + 1) / 2) = 13
  8. [13 * 13 * 384]卷积层3。384个3 * 3 * 256卷积核,步长为1,全0填充。因此输出边长为ceiling(13 / 1) = 13
  9. [13 * 13 * 384]卷积层4。卷积核和步长同上,输出边长仍然为13.
  10. [13 * 13 * 256]卷积层5。256个3 * 3 * 384卷积核,步长为1,全0填充。因此输出边长为ceiling(13 / 1) = 13。
  11. [6 * 6 * 256]maxpool3。池化尺寸为3 * 3,步长为2,不填充。因此输出的边长为ceiling((13 - 3 + 1) / 2) = 6
  12. [4096] 全连接层1。
  13. [4096] 全连接层2
  14. [1000] 全连接层3
  15. softmax
    AlexNet原理及Tensorflow实现

1.5 代码解析

1.5.1 tf.split, tf.concat

tf.split
tf.concat

tf.split(
    value,
    num_or_size_splits,
    axis=0,
    num=None,
    name='split'
)
tf.concat(
    values,
    axis,
    name='concat'
)

上面这两个函数的定义有利于下文代码的理解。

1.5.2 conv函数

def conv(input, kernel, biases, k_h, k_w, c_o, s_h, s_w,  padding="VALID", group=1):
    '''From https://github.com/ethereon/caffe-tensorflow
    '''
    print("input getshape", input.get_shape())
    c_i = input.get_shape()[-1]
    assert c_i%group==0
    assert c_o%group==0
    convolve = lambda i, k: tf.nn.conv2d(i, k, [1, s_h, s_w, 1], padding=padding)
    
    
    if group==1:
        conv = convolve(input, kernel)
    else:
        input_groups =  tf.split(input, group, 3)   #tf.split(3, group, input)
        kernel_groups = tf.split(kernel, group, 3)  #tf.split(3, group, kernel) 
        output_groups = [convolve(i, k) for i,k in zip(input_groups, kernel_groups)]
        conv = tf.concat(output_groups, 3)          #tf.concat(3, output_groups)
    return  tf.reshape(tf.nn.bias_add(conv, biases), [-1]+conv.get_shape().as_list()[1:])
  • convolve是lambda函数,接受两个参数并返回一个tf.nn.conv2d
  • 这段代码的意义就是,按照第三维度(channel的维度)将输入切割为group份,分别计算输出,再按照第三维度合并。其意义在于分组计算,减少计算的负荷。

1.6 运行结果

各个层的维度


使用默认的图片。要预测的图片为鼹鼠和猎鹬犬,从预测结果上来看,这两个种类对应的概率都最大,所以预测正确

预测结果

再使用三张在网上搜索的图片,分别是"snail", "bee eater"和"golden retriever"。其中两个都错了。


2. VGG

2.1 架构

学长给的VGG案例为VGG16,使用了16层的VGG。
代码参考VGG in TensorFlow


各层的尺寸计算方法在上文1.4篇章(AlexNet架构)已经描述,此处不赘述。

2.2 运行结果

各个层的卷积核大小或维度


各个层的维度

下面是VGG各个层的参数维度情况
conv1_1_W的conv表示卷积层,1_1表示第一部分的第一块卷积层,1_2则表示第一部分的第二块卷积层,W表示矩阵的权重
(3, 3, 3, 64)的参数意义是(filter width, filter height, channel, filter number)

各层的参数

使用默认的图片。要预测的图片为某个鼹鼠,从预测结果来看,鼹鼠的可能性最大,所以预测正确
预测结果

再使用"snail", "bee eater"和"golden retriever"。全对,且与其它项的比较很明显。




参考

cnn学习之卷积或者池化后输出的map的size计算

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容