U-Net及其衍生网络

今天来分享下一点需要掌握的储备知识,一个很经典的模型——U-Net。

U-Net

长连接优点:U-Net中的长连接是有必要的,它联系了输入图像的很多信息,有助于还原降采样所带来的信息损失,在一定程度上,我觉得它和残差的操作非常类似,也就是residual操作,x+f(x)。我不知道大家是否同意这一个观点。因此,我的建议是最好给出一个综合长连接和短连接的方案。

U-Net++

把原来空心的U-Net填满了,优势是可以抓取不同层次的特征,将它们通过特征叠加的方式整合,不同层次的特征,或者说不同大小的感受野,对于大小不一的目标对象的敏感度是不同的。

一个非常直接的解决方案就是深监督,具体的实现操作就是在图中

后面加一个1x1的卷积核,相当于去监督每个level,或者每个分支的U-Net的输出。



为什么可以剪枝,这张图特别的精彩。关注被剪掉的这部分,你会发现,在测试的阶段,由于输入的图像只会前向传播,扔掉这部分对前面的输出完全没有影响的,而在训练阶段,因为既有前向,又有反向传播,被剪掉的部分是会帮助其他部分做权重更新的。这两句话同样重要,我再重复一遍,测试时,剪掉部分对剩余结构不做影响,训练时,剪掉部分对剩余部分有影响。这意味什么?

因为在深监督的过程中,每个子网络的输出都其实已经是图像的分割结果了,所以如果小的子网络的输出结果已经足够好了,我们可以随意的剪掉那些多余的部分了。


对于为什么要在测试的时候剪枝,而不是直接拿剪完的L1,L2,L3训练,我们的解释其实上一页ppt上面写了,剪掉的部分在训练时的反向传播中是有贡献的,如果直接拿L1,L2,L3训练,就相当于只训练了不同深度的U-Net,最后的结果会很差。

第二个问题,如何去决定剪多少,还是比较好回答的。因为在训练模型的时候会把数据分为训练集,验证集和测试集,训练集上是一定拟合的很好的,测试集是我们不能碰的,所以我们会根据子网络在验证集的结果来决定剪多少。所谓的验证集就是一开始从训练集中分出来的数据,用来监测训练过程用的。

UNet++的第一个优势就是精度的提升,这个应该它整合了不同层次的特征所带来的,第二个是灵活的网络结构配合深监督,让参数量巨大的深度网络在可接受的精度范围内大幅度的缩减参数量。

Non-local U-Net  论文《Non-local U-Nets for Biomedical Image Segmentation》

目前的Unet结构存在两个问题:

1.四次down-sample参数量太多、下采样会丢失很多信息以及encoder的conv、pooling都是local算子,这里的local是相对于global而言的,我一次卷积操作感受野kernel_size大小,是局部(local)的,像Full-Connection就是全局(global)的,所以我想要获取global的信息就需要很深的编码器(感受野随conv的增加而增加);

2.上采样的过程涉及恢复图像的空间信息,如果只是局部信息而不考虑全局信息就很难做到。

解决方法:

针对以上两个问题,作者给出了解决方法(想到需要global info我们可能首先会想到加FC Layer,但它参数量实在太大了,这也是CNN比FCN的先进性所在,现在更想去看看作者是怎么实现的啦!)

作者提出了一种基于self-attention的全局聚合块(global aggregation block),使用这个block无需深度编码器就能聚合全局信息;

此block进一步扩展到up-sample。

整体网络:


整体的网络结构,还是基于经典的Unet改的。up-sample和down-sample都是三次,skip-connection采用的是element-wise相加操作而不是concat操作,这样作者解释有两个优点:

※减少trainable参数(因为feature map减半了);

※加操作就像residual block,所以拥有残差块的所有优点。

Residual blocks

(a)示出具有两个连续卷积层的规则剩余块。这里,在每个卷积层之前使用带有ReLU6激活函数的批处理归一化。在该框架中,这个块被用作输入块。输出块进行1×1×1的步长为1的卷积。此外,在对跳转连接求和之后,我们插入图2(b)所示的下采样剩余块。采用步长为2的1×1×1卷积代替同一残差连接,从而相应地调整特征地图的空间尺寸。图2(c)展示了我们的底部模块,剩余连接被应用于所提的全局聚集块上。上采样剩余块如图2(d)所示。与图2(b)中的下采样块类似,同一剩余连接被步长为2的3×3×3反褶积代替,另一个分支是上采样全局聚集块。


Global Aggregation Block


提出了一种全局聚集块,它能够从任意大小的特征映射中融合全局信息。我们进一步推广它来处理下采样和上采样,使它成为一个可以在深度学习模型中任何地方使用的块。让X表示全局聚合块的输入,Y表示输出。为了简单起见,我们使用conv1n来表示1×1×1的卷积,其步长为1和N个输出信道。请注意,Conv 1ndo不会更改空间大小。提出的块的第一步是生成查询(Q)、键(K)和值(V)矩阵

Q、K和V矩阵的每一行分别表示一个查询向量、一个键向量和一个值向量。请注意,查询向量与键向量具有相同的维度。同时,密钥向量的个数与值向量的个数相同,表示一对一的对应关系。第二步,注意机制应用于Q、K和V


A经矩阵乘除法变成D_qH_qW_q * DHW维的,O经矩阵乘法变成D_qH_qW_q * C_v维的。

第三步由O生成Y

U-Net3+

Unet进化史:

与UNet和UNet++相比,UNet 3+结合了多尺度特征,重新设计了跳跃连接,并利用多尺度的深度监督,UNet

3+提供更少的参数,但可以产生更准确的位置感知和边界增强的分割图。


全尺寸跳跃连接





全尺度深度监督

为了从全尺度的聚合特征图中学习层次表示,UNet 3+进一步采用了全尺度深度监督。不同于UNet++,UNet 3+中每个解码器阶段都有一个侧输出,是金标准(ground truth,GT)进行监督。为了实现深度监督,每个解码器阶段的最后一层被送入一个普通的3×3卷积层,然后是一个双线性上采样和一个sigmoid函数。(这里的上采样是为了放大到全分辨率)



分类导向模块GCM

在大多数医学图像分割中,非器官图像出现假阳性是不可避免的。它很有可能是由于来自背景的噪声信息停留在较浅的层次,导致过度分割的现象。为了实现更精确的分割,通过增加一个额外的分类任务来解决这个问题,这个任务是为预测输入图像是否有器官而设计的。


语义分割网络在特征融合时有2种办法:

FCN式的逐点相加(即跳跃结构),对应caffe的EltwiseLayer层,对应tensorflow的tf.add()

U-Net式的channel维度拼接融合(即copy and crop),对应caffe的ConcatLayer层,对应tensorflow的tf.concat()

Reference:

1.https://zhuanlan.zhihu.com/p/44958351(U-Net++)

2.https://zhuanlan.zhihu.com/p/163507824(Non local U-Net)

3.https://zhuanlan.zhihu.com/p/136164721(U-Net3+)

4.https://zhuanlan.zhihu.com/p/118540575(U-Net+与FCN的区别)

5.https://blog.csdn.net/weixin_40519315/article/details/104412740(FCN+与CNN的区别)

6.https://www.cnblogs.com/xiaoboge/p/10502697.html(全卷积网络FCN详解)

7.https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247504877&idx=2&sn=9c55b083868930dbfa66e8addbf486b3&chksm=ec1c3e14db6bb7022de0fcccb9f9bfd2439e86f2e941fa678ccc88fa8987dbefd73b7b5bd364&mpshare=1&scene=23&srcid=0820MalV5mecprQEQtaFmXMd&sharer_sharetime=1597990923671&sharer_shareid=5b814e071200e787a26a4085d58a8ca1#rd(理清医学影像分割)

©著作权归作者所有,转载或内容合作请联系作者
禁止转载,如需转载请通过简信或评论联系作者。
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,718评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,683评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,207评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,755评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,862评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,050评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,136评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,882评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,330评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,651评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,789评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,477评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,135评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,864评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,099评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,598评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,697评论 2 351