《Batch Normalization》阅读笔记

文章提出了将批处理作为模型本身的一部分。

批处理的平均损失是对整个数据集的估计;批处理可以利用数据并行提高训练速度。深度学习需要谨慎调整模型参数,并且网络的初始化参数也很重要。

为什么要用Normalization,文中提到,考虑一个经过sigmoid函数的网络层:

z=g(Wu+b),其中g(x)=\frac{1}{1+exp(-x)} 。当x增大时,g{\prime}(x)趋向于0.这会使得对参数W的求导也趋向于0,使得训练速度变慢。

然而,由于x
Wb
和下面所有层的参数的影响,在训练期间对这些参数的改变可能将x
的许多维度移动到非线性的饱和状态并且减慢收敛。随着网络深度的增加,这种效应会得到放大(这一块儿不是很理解)。在实际操作中,饱和问题和梯度消失问题都用线性修正单元(ReLU)、慎重初始化模型参数、较小的学习率来解决的。

Batch Normalization旨在减少内在协方差位移,可以使用较大的学习率,可以提高训练速度。Batch Normalization还可以规范化模型以及减少Dropout的必要性(?)

作者在ImageNet上使用Batch Normalization训练,只用了7%的训练步骤就完成了效果,并且可以进一步提升准确率。


Internal Covariate Shift 是指在训练过程中由于网络参数的改变导致网络激活函数的分布改变。如果网络的输入是均值为0,单元方差的化(即白化),则网络的训练将会收敛得更快。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容