深度学习前言

一 神经网络的过拟合问题怎么解决?请详细说明。

答案:

(1)L1与L2正则化 

            在损失函数加惩罚项,L1正则加系数绝对值求和,L2正则加系数的平方求和,使损失函数增大,降低过拟合风险。

(2)Dropout正则化

        1、训练过程

            神经元随机失效,概率为P。并且在神经元存在且工作的状态下,权重才会更新,权重更新的   越多理论上会变得更大

        2、测试过程

            神经元随机失效,概率为0。所有的神经元都会参与计算,大于训练时候的任意一个模型的计算量

(3)BN结构

         1、Batch Normalization的作用就是减小Internal Covariate Shift 所带来的影响,让模型变得更加健壮,鲁棒性(Robustness)更强。

          2 、Batch Normalization 的作用,使得均值和方差保持固定(由每一层γ和β决定),不同层学习到不同的分布状态

          3、因此后层的学习变得更容易一些。Batch Normalization 减少了各层 W 和 b 之间的耦合性,让各层更加独立,实现自我训练学习的效果

(4)早停止法

通常不断训练之后,损失越来越小。但是到了一定之后,模型学到的过于复杂(过于拟合训练集上的数据的特征)造成测试集开始损失较小,后来又变大。模型的w参数会越来越大,那么可以在测试集损失减小一定程度之后停止训练。

(5)数据增强

剪切、旋转/反射/翻转变换、缩放变换、平移变换、尺度变换、对比度变换、噪声扰动、颜色变换等一种或多种组合数据增强变换的方式来增加数据集的大小

二   假设有一个28x28的图片,有32个卷积核进行卷积,大小为3x3,步幅为1,使用“same”的填充方式。请写出输出特征图的尺寸是多少和计算过程。

答案:

(1)卷积网络计算公式

输入大小:H1,W1,C1

输出大小:H2,W2,C2

卷积核参数:FxF(核大小),S(步长),P(零填充大小), N(卷积核个数)

H2 = (H1-F+2P)/S +1

W2 = (W1-F+2P)/S + 1

C2 = N

Same意为特征图的大小与处理之前一致:

输出大小为:H = (28-3+2P)/1+1=28

W = (28-3+2P)/1+1=28

求解可得:P=1

通道数与Filter个数一致:

C = 32

输出图像的大小为:28*28*32

三 有哪些激活函数可以使用?详细说明每种激活函数的特点?

(1)sigmoid

1Sigmoid函数饱和使梯度消失。sigmoid神经元有一个不好的特性,就是当神经元的激活在接近0或1处时会饱和:在这些区域,梯度几乎为0。

2指数函数的计算是比较消耗计算资源的

(2)Tanh

Tanh:和sigmoid神经元一样,它也存在饱和问题,依然指数运算。但是和sigmoid神经元不同的是,它的输出是零中心的。

(3)Relu

优点:

1相较于sigmoid和tanh函数,ReLU对于随机梯度下降的收敛有巨大的加速作用,这是由它的线性,非饱和的公式导致的。

2sigmoid和tanh神经元含有指数运算等耗费计算资源的操作,而ReLU可以简单地通过对一个矩阵进行阈值计算得到。

缺点:在训练的时候,ReLU单元比较脆弱并且可能“死掉”。

(4)Leaky ReLU:

Leaky ReLU是为解决“ReLU死亡”问题的尝试。ReLU中当x<0时,函数值为0。而Leaky

ReLU则是给出一个很小的负数梯度值,比如0.01。

四 讲一下你了解的梯度下降的优化方法,sgd, momentum,rmsprop, adam的区别和联系。

(1)SGD

相对于批量梯度和mini-batch梯度下降,随机梯度下降在每次更新时用1个样本,随机也就是说我们用样本中的一个例子来近似我所有的样本,来调整参数。

问题:

虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近。但是相比于批量梯度,这样的方法更快,更快收敛,虽然不是全局最优,但很多时候是我们可以接受的。当然理论上来讲SGD会很难去解决鞍点等优化问题,需要后面的算法去进行求解。

(2)momentum

动量梯度下降(Gradient Descent with Momentum)是计算梯度的指数加权平均数,并利用该值来更新参数值。动量梯度下降法的整个过程为,其中\betaβ通常设置为0.9:

下面两种都是能够适应性地对学习率调参的方法,甚至是逐个参数适应学习率调参。

(3)RMSProp

不同于AdaGrad算法里状态变量st是截至时间步t所有小批量随机梯度gt按元素平方和。

RMSProp(Root Mean Square Prop)算法将这些梯度按元素平方做指数加权移动平均

(4)Adam算法

Adam 优化算法(AdaptiveMoment Estimation,自适应矩估计)将 Momentum 和 RMSProp 算法结合在一起。Adam算法在RMSProp算法基础上对小批量随机梯度也做了指数加权移动平均。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。