Group Normalization

https://arxiv.org/pdf/1803.08494.pdf


需求:

随着batch size越来越小,BN层所计算的统计信息的可靠性越来越差,这样就容易导致最后错误率的上升;而在batch size较大时则没有明显的差别。虽然在分类算法中一般的GPU显存都能cover住较大的batch设置,但是在目标检测、分割以及视频相关的算法中,由于输入图像较大、维度多样以及算法本身原因等,batch size一般都设置比较小,所以GN对于这种类型算法的改进应该比较明显。

图片.png

核心思想:不依赖batch大小,按通道划分为组

它会规定多少个通道是一个组或者规定共有多少个组,如图所示,就是每张图片,1-3通道放在一起正则化,4-6通道放到一起正则化,依次类推。


图片.png
图片.png
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容