牛顿法和梯度下降法的学习

牛顿法和梯度下降法的差别

牛顿法:二次逼近
梯度下降法:一阶逼近

牛顿法:对局部凸的函数找到极小值,对局部凹的函数找到极大值,对不凹不凸的函数可能找到鞍点。
梯度下降法:一般不会找到最大值,但同样可能会找到鞍点。

在初始值合理的条件下,
牛顿法的收敛速度>梯度下降法的收敛速度

牛顿法的计算难度更大(因为需要估计二阶导数)

泰勒展开式:https://baike.baidu.com/item/泰勒公式/7681487?fr=aladdin

其中

牛顿法:

对f(x)函数进行二次逼近,即可以开方两次:

我们假设

g(x)是一个关于∆x的一元二次方程,我们知道一元二次方程式的最小值求法:

那么,g(∆x)的极值为:

此时f(x0+∆x)的极值为:

以此类推:

当f是一个多元函数时,牛顿法将会变为:

分子代表梯度(一阶矩阵推广的向量)

,分母代表Hession矩阵:

梯度下降法:

梯度下降法与牛顿法的区别在于梯度下降法是一阶算法。

假设f(x)是个多元函数,x是一个向量,在x0出对f进行线性逼近:

由于一次函数g(x)没有极值,所以梯度下降法只能提供出来下降的方向,而不能提供出需要下降的距离,我们通常只设定一个比较小的距离γ,并使其沿这个方向走下去,并二道梯度下降法的序列:

牛顿法和梯度下降法的本质上都是对目标函数进行局部逼近,所以只能找到局部极值。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 前言 学习机器学习一直是用梯度下降法的,对于牛顿下降法并没有什么了解,但是小学期同学的一个项目用到了牛顿下降法,同...
    WZFish0408阅读 7,223评论 0 12
  • 转载-刘建平Pinard-www.cnblogs.com/pinard/p/5970503.html 在求解机器学...
    商三郎阅读 3,534评论 0 2
  • 机器学习是做NLP和计算机视觉这类应用算法的基础,虽然现在深度学习模型大行其道,但是懂一些传统算法的原理和它们之间...
    在河之简阅读 20,616评论 4 65
  • 第一章 想要给你写的小纸条 第二章 心头的朱砂痣 扑通扑通 第三章 吃一顿烧烤吧,只有我们 第四章(1)第一张纸条...
    时珏妸阅读 186评论 1 1
  • 文 | 一鸣 半夜睡不着觉,把心情哼成歌,只好到屋顶找另一个梦境…… 错了,半夜睡不着觉,把心事编鬼故事,吓吓其...
    一鸣阅读 2,521评论 16 57