AI疯狂进阶——Depthwise Separable Conv is all you need?

本文作者专注于AI进阶算法,正在推出AI疯狂进阶之基础理论进阶篇,如有兴趣可持续关注我。

核心导读:

1.Depthwise Separable Convolution为什么高效?

2.Depthwise Separable Convolution比普通卷积差?

3.Depthwise Separable Convolution is all you need?

随着深度学习的发展,卷积神经网络变得越来越普遍。之前很长一段时间,大家都把注意力放在通过更深和更复杂的网络来得到更高的精度,比如很多刷榜的算法都是运用了非常复杂的技巧(实际中可能毛用都没,这里鄙视下那些纯粹为了刷榜而刷榜的,浪费时间和精力为了个虚名而已),但是这种网络往往在模型大小和运行速度上没多大优势,在实际的工程应用中可能因为应用成本太大而很难大规模商用,例如一些嵌入式平台上的应用比如机器人和自动驾驶,手机端的一些AI应用比如人脸识别或者文字识别,它们的硬件资源有限,就十分需要一种轻量级、低延迟的网络模型,而本文所讲得深度可分离卷积(Depthwise Separable Convolution)即是在这样的背景下面应运而生。

1.Depthwise Separable Convolution为什么高效?

Depthwise Separable Convolution将传统的卷积分解为一个深度卷积(depthwise convolution)+ 一个 1×1的卷积(pointwise convolution)。如下图所示,(a)是传统卷积,(b)、(c)分别对应深度可分离卷积的深度卷积和 1×1的卷积:

假设输入特征图大小为 D_F×D_F×M,输出特征图大小为 D_F×D_F×N,卷积核大小为 D_K×D_K,则传统卷积的计算量为:D_K×D_K×M×N×D_F×D_F

参数量为:D_K×D_K×M×N

深度可分离卷积的计算量为深度卷积和 1×1 卷积的计算量之和:D_K×D_K×M×D_F×D_F+M×N×D_F×D_F

参数量为:D_K×D_K×M+ M×N

当卷积核大小为 3×3的时候,深度可分离卷积的计算量缩减为传统卷积的 1/8~1/9 ,参数量也减少较多,但精度下降很低,甚至不会下降。Depthwise Separable Convolution目前已经广泛应用于各种轻量化卷积神经网络中,如Mobilenet系列,Shufflenet系列,Nasnet系列,Efficientnet系列,MixNet等,几乎已经成为一种标配或者潮流。

2.Depthwise Separable Convolution比普通卷积差?

Efficient系列的文章告诉了我们答案。《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》是谷歌2019年最新的研究,该文在mNasnet的基础单元基础上用AUTO ML搜索出一系列轻量化网络B0-B7,具体精度如下图,而mNasnet基础单元主要是由Depthwise Separable Convolution和1*1 Convolution组成。从数据可以看出,最大的Efficient-B7仅仅只用了66M的参数就达到了大模型Gpipe 557M的精度,而我们常用的Resnet-50网络,Efficient-B0仅仅只用5.3M的参数就可以达到同样的精度。当然,数据如此惊悚的另一大原因就是用了TPU(炫富,不信去看看谷歌TPU的服务价格!)+AUTOML(有很多人认为这算是一种过拟合,但我想说的是,我们现在很多实际应用项目就是需要在特定的场景下面过拟合,根本就不太需要很高的泛化能力)。这数据背后其实可以反应出一个很明显的问题,Depthwise Separable Convolution比普通卷积的精度会低吗?答案很明显,不会,并且本文作者认为随着技术进一步的发展,普通卷积会慢慢消失,这种轻量化卷积将会成为主流。

3.Depthwise Separable Convolution is all you need?

本文作者目前基本已经不怎么用普通卷积,而目前所有的项目中都是用的Depthwise Separable Convolution,通过AUTO ML经常能找到比普通卷积堆积的巨大网络精度还高的小型网络,当然,为什么会出现这种情况,目前理论上还没办法证明,本文作者也在持续探索这一块的内容,有进展会第一时间发出来。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,558评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,002评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,036评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,024评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,144评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,255评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,295评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,068评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,478评论 1 305
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,789评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,965评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,649评论 4 336
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,267评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,982评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,223评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,800评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,847评论 2 351

推荐阅读更多精彩内容