DeepLab系列之V3

  1. DeepLab系列之V1
  2. DeepLab系列之V2
  3. DeepLab系列之V3
  4. DeepLab系列之V3+

概述

  1. DCNNs中语义分割存在三个挑战:
  • 连续下采用和重复池化,导致最后特征图分辨率低
  • 图像中存在多尺度的物体
    注:当前版本没有使用CFR
  1. 作者把解决多尺度物体问题的方法分成四类:


  • 把输入图片缩放成不同尺度,经过同一个网络,最终融合多尺度下的物体信息
  • 使用编解码结构,在decoder时融合encoder网络不同阶段的特征
  • 在原网络最后层增加额外的context模块,比如DenseCRF,或者串联几个不同感受野的卷积模块
  • 在原网络最后层添加并行结构—空间金字塔池化,获取不同尺度的物体信息
  1. 作者的处理方案:
  • 使用空洞卷积,防止分辨率过低情况
  • 串联不同膨胀率的空洞卷积或者并行不同膨胀率的空洞卷积(v2的ASPP),来获取更多上下文信息
  1. 优势
  • 当时在PASCAL VOC 2012 test上效果最好,并且没有使用DenseCRF
  1. 本文主要工作
  • 探索更深结构下的空洞卷积探索(串行结构)
  • 优化atrous spatial pyramid pooling—ASPP(并行结构)

膨胀卷积

v1、v2中已详细说明,略....

更深结构下的空洞卷积

  1. 串联结构
    把resnet最后一个block,下图中的Block4拷贝几份串联起来:



    每个block的最后一个卷积stride都为2(除了最后一个block),连续的下采样保证获取更大范围的特征,但是这样不利于语义分割。
    使用不同膨胀率的空洞卷积保证了分辨率和大的感受野,如上图b所示。

  2. multi-grid
    作者考虑了multi-grid方法,即每个block中的三个卷积有各自unit rate,例如Multi Grid = (1, 2, 4),block的dilate rate=2,则block中每个卷积的实际膨胀率=2* (1, 2, 4)=(2,4,8)

优化Atrous Spatial Pyramid Pooling

作者通过实验发现,膨胀率越大,卷积核中的有效权重越少,当膨胀率足够大时,只有卷积核最中间的权重有效,即退化成了1x1卷积核,并不能获取到全局的context信息。3x3的卷积核中有效权重与膨胀率的对应如下:


为了解决这个问题,作者在最后一个特征上使用了全局平均池化(global everage pooling)(包含1x1卷积核,输出256个通道,正则化,通过bilinear上采样还原到对应尺度)
修改后的ASPP结构如下:

所有的分支都包含256个通道和正则化,最终concat到一起,1x1卷积将通道数为256。

实验

  1. 训练策略
  • Learning rate policy:
    poly,学习率下降方式如下:


  • Crop size:
    513,保证更大的膨胀率有效
  • Batch normalization:
    先在增强数据集上output stride = 16(输入图像与输出特征大小的比例),batch size=16,BN参数衰减为0.9997,训练30k个iter。
    之后在官方PASCAL VOC 2012的trainval集上冻结BN参数, output stride = 8,batch size=8,训练30k个iter。
  • Upsampling logits:
    v1、v2中都是下采样的真值来计算loss,这里上采样最后的输出结果。
  • Data augmentation:
    输入图片随机缩放(0.5-2.0),随机左右翻转
  1. 串行结构下的结果
  • block串联个数不同,在resnet50和resnet101下的mIOU:


  • ResNet-101,output stride = 16下不同multi-grid的mIOU:


  • 消融实验:


  1. ASPP结构下的结果
  • output stride = 16,不同multi-grid和膨胀率的结果:


  • 消融实验:


经验track

  1. 如何在MS COCO上预训练?
    trainval_minus_minival挑选包含PASCAL分类并且目标区域像素个数大于1000的图片,大概有60k的图片用于训练,除了PASCAL分类区域,其它都看成背景。从上述实验结果中发现提升了3个百分点。
  2. 对于有些类准确率比较低,怎么办?
    针对包含namely bicycle、chair、table、potted- plant、and sofa分类的图片,在训练集中增加它们比列。通过BN策略和这里的策略,达到85.7%IOU,再次提升3个百分点。
  3. Cityscapes上的小策略:
    cropsize 769 iters 90k
  • output stride = 16时:77.23%
  • output stride = 8时:77.82%
  • 多尺度输入(0.75,1,1.25):79.30%
  • 事先在trainval coarse上预训练,scales = {0.75, 1, 1.25, 1.5, 1.75, 2} ,output stride = 4,output stride = 8,最终结果:81.3%
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,193评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,306评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,130评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,110评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,118评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,085评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,007评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,844评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,283评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,508评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,667评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,395评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,985评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,630评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,797评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,653评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,553评论 2 352