文章地址:《RepVGG: Making VGG-style ConvNets Great Again》
代码地址:https://github.com/megvii-model/RepVGG
文章发表于CVPR2021,文章提出一种将训练态和推断态网络结构解耦的方法。文章认为目前复杂的网络结构能够获取更高的精度,但是存在很明显的缺点:
-
多分支结构可能会降低推断速度以及更占用显存。例如resnet的残差结构在多个分支的地方需要复制一份tensor用于分支之间的计算,如下图所示
- depthwise conv或者shufflenet中的channel shuffle操作对实际落地的支持可能不太好等
对应的只有简单的由卷积和relu激活组成的网络,有如下几点优势:
许多多分支的网络虽然在FLOPs上小于VGG,但是推断时并没有更快(例如VGG-16的FLOPs是EfficientNet-B3的8.4倍,但在1080Ti上运行,VGG-16还要快1.6倍)
多分支网络更耗显存,因为每个分支都需要有一份tensor用于计算直到分支通过加(addition)或者串联(concatenation)的方式合并
多分支网络更不灵活,例如resnet必须由resnet block组成,而resnet block中最后一个卷积必须与输入保持一致,否则shortcut结构就不能工作了。更不灵活的是,在对网络进行通道剪枝时,多分支的网络剪枝起来很麻烦而且不合理(因为block内,通道数会互相影响)
为了取长补短,文字提出一种重参(re-parameterization)的方式,将训练态的网结构与推断态的网络结构解耦。即训练时利用多分支的网络结构,推断只有普通的和relu激活组成的网络。
一、重参的原理
重参的原理就是通过代数的方式将多分支合并为一个分支。
更具体的,我们可以将的卷积看成是大小卷积的特例,identity和BN分支可以看成是卷积的特例。这句话可以用下图表示:
上图A是将重参前的结构演变为卷积的流程图,流程分为如下几步:
将的卷积和bn层合并成卷积
将的卷积转换为的卷积,然后与bn合并成的卷积
将BN转换为的卷积
将转换后的三个的并联的卷积合并为最终的的卷积
这里在合并前就是训练态的结构,合并后就是推断态的网络结构。
上图B是具体的参数转换流程,为了方便理解这里加以说明一下。上图假设当前网络块的输入和输出通道都为2。图中对于一个卷积来说,水平方向为输入的通道数,竖直方向为输出通道数。
对于的卷积来说,将其转换为的卷积,就是将的卷积核进行周围补0,补成的大小即可
对于BN层或者shortcut结构来说,将其转换为的卷积,就是对应通道数除当前输出通道的中心为对应的值,其它值都为0。例如identity结构,当前中心值为1,其它值都为0,这样与输入相乘后,仍然为输入的值。
具体用公式表示如下(对公式不感兴趣的可以不看,上图已经很清晰了,这里是想说明代数方式如何将网络进行化简合并的):
先定义一些符号,大小输入通道为输出通道为的卷积参数表示为,对应输入输出通道数的卷积参数表示为。跟在大小卷积后的BN层参数为,跟在大小卷积后的BN层参数为,identity分支中的BN层参数为。这里假设,符号表示卷积。那么对于输入和输出存在如下关系:
其中推断态的BN可以写成下式:
上式中体现了bn的操作索引是在C维度进行的,详细可参考GN-Group Normalization
上式可以化简为:
其中,
到这里重参的原理基本就介绍完了,具体实验请查看原文。