常用优化方法(optimizer)总结:Adam、SGD、momentum、AdaGard等

机器学习几乎所有算法都要利用损失函数lossfunction来检验算法模型的优劣,同时利用损失函数来提升算法模型的。

这个提升的过程就是优化的过程

也就是 optimizer

常用的优化方法(Optimizer)

  • 1 SGD 和 BGD 和 Mini-BGD
    • SGD 随机梯度下降,算法在每读入一个数据都会立刻计算loss function的梯度来update参数。假设loss function为w
      w = w - \eta \nabla_{wi}L(w_i) 所以SGD的batchsize为1
      收敛的速度快,但是不容易跳出局部最优解
    • BGD(batch gradient descent):批量梯度下降,算法在读取整个数据集后才去计算损失函数的梯度
      w = w - \eta \nabla_wL(w) batchsize 为n
      数据处理量加大,梯度下降较慢;训练过程中占内存
    • Mini - BGD(mini-batch gradient descent):选择小批量来进行梯度下降,这是一种折中的方法,采用训练子集的方法来计算loss
      w = w - \eta \nabla_{wi:i+n}L(w_{i+n})
      \color{red}{这个优化方法用的也是比较多的,计算效率高而且收敛稳定,是现在深度学习的主流方法}

上面的方法都存在一个问题,就是update更新的方向完全依赖于计算出来的梯度.很容易陷入局部最优的马鞍点.能不能改变其走向,又保证原来的梯度方向.就像向量变换一样,我们模拟物理中物体流动的动量概念(惯性).

引入Momentum的概念.

  • Momentum
    在更新方向的时候保留之前的方向,增加稳定性而且还有摆脱局部最优的能力
    \Delta w = w - \eta \nabla_{wi}L(w_i) ; w = w + \Delta w
    若当前梯度的方向与历史梯度一致(表明当前样本不太可能为异常点),则会增强这个方向的梯度,若当前梯度与历史梯方向不一致,则梯度会衰减。一种形象的解释是:我们把一个球推下山,球在下坡时积聚动量,在途中变得越来越快,\eta可视为空气阻力,若球的方向发生变化,则动量会衰减

  • Adagrad:(adaptive gradient)自适应梯度算法,是一种改进的随机梯度下降算法.以前的算法中,每一个参数都是用相同的学习率,Adagrad算法能够在训练中自动对learning_rate进行调整,出现频率较低参数采用较大的𝛼更新,出现频率较高的参数采用较小的𝛼更新.根据描述这个优化方法很适合处理稀疏数据.

  • RMSprop(root mean square propagation) 也是一种自适应学习率方法. 不同之处在于,Adagrad会累加之前所有的梯度平方,RMProp仅仅是计算对应的平均值.可以缓解Adagrad算法学习率下降较快的问题.
    v(w,t)=\gamma v(w,t-1) +(1-\gamma)(\nabla L(w_i))^2,其中\gamma是遗忘因子
    参数更新
    w = w - \frac{\eta}{\sqrt{v(w,t)}}\nabla L(w_i)

  • Adam (adaptive moment estimation) 是对RMSProp优化器的更新.利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率.
    优点:每一次迭代学习率都有一个明确的范围,使得参数变化很平稳.

\color{green}{最常用的就是Adam}

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,826评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,968评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,234评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,562评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,611评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,482评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,271评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,166评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,608评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,814评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,926评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,644评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,249评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,866评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,991评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,063评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,871评论 2 354

推荐阅读更多精彩内容

  • 有前面的知识,我们知道如何构建目标函数了,当目标函数构建出来后,如何求其参数使的目标函数最小化呢?这就是这一小节的...
    李涛AT北京阅读 911评论 0 0
  • 前言 梯度下降算法现在变的越来越流行,但是对于使用者来说,它的优化过程变的越来越黑盒。本文我们介绍下不通梯度下降算...
    wendaJ阅读 1,535评论 0 1
  • 在tensorflow中我们通过梯度下降算法来优化我们的模型,同时这个优化算法会在每一步的训练中来跟新,迭代模型的...
    泛酸的桂花酒阅读 4,350评论 0 0
  • 一 你哼起走调的曲子 矮墩墩的身材洋溢着踌躇满志 匆匆挤过簇拥的人群 那一刻、阴差阳错的我却被你 碰跌在童年的岔路...
    肖先阅读 984评论 16 36
  • 突然间觉得好累
    大杨笑笑阅读 155评论 0 0