深度神经网络的优化和训练的难点

反向传播算法仍然是当前深度神经网络最受欢迎的模型最优化方法。

反向传播

反向传播有前向和后向两个操作构成,前向操作利用当前的权重参数和输入数据,从下往上(即从输入层到输出层),求取预测结果,并利用预测结果与真实值求解出损失函数的值。反向操作则利用前向操作求解得到的损失函数,从上往下(从输出层到输入层),反向求取每一层对应的参数梯度,利用梯度下降法更新参数,求解网络的参数梯度。经过前向和反向两个操作后。完成了一次迭代过程。

损失函数

损失函数是机器学习中用于衡量模型一次预测结果好坏的函数,它是一个非负实数值函数,用L(Y,f(x))来表示,常用的损失函数包括4种。

(1)0-1损失函数。0-1损失函数比较的事预测值与真实值是否相同,0-1损失函数是一个非凸函数,在求解的过程中,存在很多的不足,而且它只关心预测值和真实值是否相同,没有考虑到预测值和真实值之间的距离,因此在实际应用中,它通常是作为一个衡量指标,而不是最优化的目标函数。

(2)平方损失函数。平方损失函数是线性回归模型最常用的最优化目标函数。

(3)对数损失函数。常用于分类模型的最优化目标函数。

(4)Hinge损失函数:有时也称为最大间隔目标函数。

深度学习训练的难点主要为欠拟合和过拟合:

欠拟合-梯度消失

梯度消失也称为梯度弥撒,仍然是深度神经网络训练过程中所面临的最大挑战之一。梯度消失产生的源头就在于激活函数。对预激活输出求导都牵扯到激活函数的导数,传统的激活函数及其导数,rusigmoid和tanh函数,它们的导数取值范围都小于1。以sigmoid函数为例,它的取值范围为[0,1/4],,也就是当激活函数求导后,它的取值都要比上一层减少1/4,梯度的计算是随着层数的增加而呈现出指数级的递减趋势,离输出层越远,梯度减少越明显。

目前几种常用防止深度神经网络梯度消失的技巧:

(1) 采用更合理的激活函数。

(2)Batch Normalization:有ZCA标准化层和重参数化层构成。ZCA标准化层是标准化预激活输出,是的输出的每一个维度都服从标准正态分布的形式,即均值为0,方差为1。重参数化层主要是对标准化后的预激活输出结果执行scale和shift操作,使得新的输出值有任意的均值和方差,这样梯度消失和非线性激活不再是一组矛盾关系,模型能够实时根据训练数据来动态决定激活层的非线性表达能力。

(3)深度残差网络。将深度残差网络与卷积神经网络相结合的网络模型也简称为ResNet。

过拟合

过拟合一般是指在模型选择中,选择的模型参数过多,导致对训练数据的预测很好,但对位置数据的预测很差的现象。神经网络,尤其是在深度神经网络领域,网络的层数更深,结构也更复杂,一般能达到数十层甚至上百层,而训练样本往往相对较少,过拟合问题会更加严重。

正则化是目前机器学习中常用来解决过拟合的技巧,较为常见的正则化方法包括:对单模型,比如当验证集的效果变化不明显的时候可以提前终止迭代,或者采用L1正则化和L2正则化等。对多模型,可以利用boosting来集成提升,但在深度学习中,这种方法是不现实的,因为单个模型的训练已经非常复杂耗时,并且即使训练处多个网络模型,也难以在实际环境中做到快速集成。

Dropout结合了单模型和多模型的有点,它是当前深度学习领域解决过拟合的强有力的武器。如果不考虑时间复杂度,可以通过训练多个不同的网络模型来集成提升效果,网络结构之间差别越大,提升效果也会越明显。Dropout的思想是每一迭代的过程中,会随机让网络某些节点(神经元)不参与训练,同时把与这些暂时丢弃的神经元相关的所有边全部去掉,相应的权重不会在这一次迭代中更新,每一次迭代训练都重复这个操作,这些丢弃的神经元只是暂时不做更新,下一次还是会重新参与随机化的Dropout。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容