2.2 MobileNet V1思考

本文来源于学习知乎文章 CNN模型之MobileNet

         小而高效的CNN有两个方向:一是对训练好的复杂模型进行压缩得到小模型;二是直接设计小模型并进行训练。本文要介绍的MobileNet是后者。

原则:保持模型性能(accuracy)的前提下降低模型大小(parameters size),同时提升模型速度(speed, low latency)。

我的文章的SqueezeNet和ShuffleNet也是基于这个原则。这个方向非常有前景,尤其在工业界非常有用。

1 深度级可分离卷积(Depthwise separable convolution)

         MobileNet的基本单元是深度级可分离卷积(depthwise separable convolution)(类似于SqueezeNet中的fire模块)。深度级可分离卷积其实是一种可分解卷积操作(factorized convolutions),其可以分解为两个更小的操作:

  • depthwise convolution
  • pointwise convolution,
图1 Depthwise separable convolution

如图1所示。

  • Depthwise convolution(DC)和标准卷积不同。标准卷积的卷积核是用在所有的输入通道上(input channels)。depthwise convolution针对每个输入通道采用不同的卷积核,就是说一个卷积核对应一个输入通道,所以说depthwise convolution是depth级别的操作。
  • pointwise convolution(PC)其实就是普通的卷积,只不过其采用1\times 1的卷积核。
图2 Depthwise convolution和pointwise convolution

         图2中更清晰地展示了两种操作。

  • depthwise separable convolution,首先是采用depthwise convolution对不同输入通道分别进行卷积
  • pointwise convolution将上面的输出再进行结合,这样其实整体效果和一个标准卷积是差不多的,但是会大大减少计算量和模型参数量。
             奇技淫巧的出发点是我们在文首提到的原则。为了达到这个目的,使用了各种奇技淫巧。
             下面分析下Depthwise separable convolution和标准卷积的区别。
             假设输入特征图大小为D_F \times D_F \times M,输出特征图大小为D_F \times D_F \times N。这里假设输入特征图和输出特征图的height和width相等。
             对于标准卷积,其计算量为
    D_K \times D_K \times M \times N \times D_F \times D_F
             对于depthwise separable convolution而言,其计算量为
    D_K \times D_K \times M \times D_F \times D_F + M \times N \times D_F \times D_F
             上面两个计算量相除得到
    \frac {D_K \times D_K \times M \times D_F \times D_F + M \times N \times D_F \times D_F}{D_K \times D_K \times M \times N \times D_F \times D_F} = \frac{1}{N} + \frac{1}{D_K^2}
             由上式可知,若卷积核大小为3\times 3,则运算量下降9倍。而且这个下降倍数随着D_K的增加而变大。
             标准卷积的参数数量为
    D_K \times D_K \times N
             depthwise separable convolution的参数数量为
    D_K \times D_K \times M + N
    上述两式相除得到
    \frac {D_K \times D_K \times M + N}{D_K \times D_K \times N} = \frac{M}{N} + \frac{1}{D_K^2}

2 MobileNet网络结构

         MobileNet在使用depthwise separable convolution构建网络的时候会大量使用batchnorm,这不利于硬件进行并行运算。使用BN和ReLU的depthwise separable convolution的基本结构如下图所示。

图3 加入BN和ReLU的depthwise separable convolution
图4 MobileNet的网络结构

         MobileNet的网络结构如图4所示。首先是一个3x3的标准卷积,然后后面就是堆积depthwise separable convolution,并且可以看到其中的部分depthwise convolution会通过strides=2进行down sampling。然后采用average pooling将feature变成1\times 1,根据预测类别大小加上全连接层,最后是一个softmax层。

图5 MobileNet网络的计算与参数分布

         如果单独计算depthwise convolution和pointwise convolution,整个网络有28层(这里Avg Pool和Softmax不计算在内)。我们还可以分析整个网络的参数和计算量分布,如图5所示。可以看到整个计算量基本集中在1\times 1卷积上,如果你熟悉卷积底层实现的话,卷积一般通过一种im2col方式实现,其需要内存重组,但是当卷积核为1\times 1时,其实就不需要这种操作了,底层可以有更快的实现。对于参数也主要集中在1\times 1卷积,除此之外还有就是全连接层占了一部分参数。

MobileNet改进
目的:在MobileNet基准模型的基础上再想得到更小的模型。
主要方法是引入了两个超参数:

  • width multiplier
  • resolution multiplier

width multiplier为\alpha,且\alpha \in (0, 1],于是depthwise separable convolution的计算量为:
D_F\times D_F \times \alpha M \times D_K \times D_K + \alpha M \times \alpha N \times D_F \times D_F
resolution multiplier为\rho,且\rho \in (0, 1],于是depthwise separable convolution的计算量为:
D_F\times D_F \times \alpha M \times \rho D_K \times \rho D_K + \alpha M \times \alpha N \times \rho D_F \times \rho D_F

3 MobileNet的tensorflow实现

         tensorflow中内置了depthwise convolution算子tf.nn.depthwise_conv2d。
先实现depthwise_separable_convolution子模块

def _depthwise_separable_conv2d(inputs, num_filters, width_multiplier, scope, downsample=False):
  num_filters = round(num_filters * width_multiplier)
  strides = 2 if downsample else 0
  
  with tf.variable_scope(scope):
    dw_conv = depthwise_conv2d(inputs, "depthwise_conv", strides = strides)
    bn = batchnorm(dw_conv, "dw_bn", is_training = True)
    relu = tf.nn.relu(bn)
    pw_conv = conv2d(relu, "pointwise_conv", num_filters)
    bn = batchnorm(pw_conv, "pw_bn", is_training=True)
    return tf.nn.relu(bn)

利用上面的_depthwise_separable_conv2d来构建MobileNet。

def MobileNet(inputs, num_classes, width_multiplier, scope = "MobileNet"):
  with tf.variable_scope(scope):
    net = conv2d(inputs, "conv_1", round(32 * width_multiplier), filter_size=3, strides=2)               # ->[N, 112, 112, 32]
    net = tf.nn.relu(bacthnorm(net, "conv_1/bn", is_training=self.is_training))
    net = self._depthwise_separable_conv2d(net, 64, width_multiplier, "ds_conv_2")                       # ->[N, 112, 112, 64]
    net = self._depthwise_separable_conv2d(net, 128, width_multiplier, "ds_conv_3", downsample=True)     # ->[N, 56, 56, 128]
    net = self._depthwise_separable_conv2d(net, 128, width_multiplier, "ds_conv_4")                      # ->[N, 56, 56, 128]
    net = self._depthwise_separable_conv2d(net, 256, width_multiplier, "ds_conv_5", downsample=True)     # ->[N, 28, 28, 256]
    net = self._depthwise_separable_conv2d(net, 256, width_multiplier, "ds_conv_6")                      # ->[N, 28, 28, 256]
    net = self._depthwise_separable_conv2d(net, 512, width_multiplier, "ds_conv_7", downsample=True)     # ->[N, 14, 14, 512]
    net = self._depthwise_separable_conv2d(net, 512, width_multiplier, "ds_conv_8")                      # ->[N, 14, 14, 512]
    net = self._depthwise_separable_conv2d(net, 512, width_multiplier, "ds_conv_9")                      # ->[N, 14, 14, 512]
    net = self._depthwise_separable_conv2d(net, 512, self.width_multiplier, "ds_conv_10")                # ->[N, 14, 14, 512]
    net = self._depthwise_separable_conv2d(net, 512, width_multiplier, "ds_conv_11")                     # ->[N, 14, 14, 512]
    net = self._depthwise_separable_conv2d(net, 512, width_multiplier, "ds_conv_12")                     # ->[N, 14, 14, 512]
    net = self._depthwise_separable_conv2d(net, 1024, width_multiplier, "ds_conv_13", downsample=True)   # ->[N, 7, 7, 1024]
    net = self._depthwise_separable_conv2d(net, 1024, width_multiplier, "ds_conv_14")                    # ->[N, 7, 7, 1024]
    net = avg_pool(net, 7, "avg_pool_15")
    net = tf.squeeze(net, [1, 2], name="SpatialSqueeze")
    self.logits = fully_connected(net, num_classes, "fc_16")
    self.predictions = tf.nn.softmax(self.logits)

4 MobileNet的缺点分析

         一点愚见:

  • 依然使用了batchnorm,导致在FPGA中难以实现并行处理
  • 使用了平均池化,对增加计算量

5 总结

         本文简单介绍了Google提出的移动端模型MobileNet,其核心是采用了可分解的depthwise separable convolution,其不仅可以降低模型计算复杂度,而且可以大大降低模型大小。在真实的移动端应用场景,像MobileNet这样类似的网络将是持续研究的重点。后面我们会介绍其他的移动端CNN模型。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,491评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,856评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,745评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,196评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,073评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,112评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,531评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,215评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,485评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,578评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,356评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,215评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,583评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,898评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,174评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,497评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,697评论 2 335