[机器学习必知必会]牛顿法与拟牛顿法

前言

同梯度下降法一样,牛顿法和拟牛顿法也是求解无约束最优化问题的常用方法。牛顿法本身属于迭代算法,每一步需要求解目标函数的海赛矩阵的逆矩阵,计算比较复杂。拟牛顿法通过正定矩阵近似海赛矩阵的逆矩阵或海赛矩阵,简化了这一计算过程。

需要提前了解的知识

1.泰勒展开

f(x)x=x_0处具有n阶连续导数,我们可以用x-x_0n次多项式逼近函数

公式:
f(x) = \frac{f(x_0)}{0!}+\frac{f'(x_0)}{1!}(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+...+\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n+R^n(x)
其中R^n(x)表示泰勒余项,它是(x-x_0)^n的高阶无穷小。

2.海森矩阵

Hessian Matrix,是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率

以二元函数f(x_1,x_2)为例,它在X^{(0)}(x_1^{(0)},x_2^{(0)})点处的泰勒展开式为:
$$
f(x_1,x_2) =
f(x_1{(0)},x_2{(0)})

  • \frac{\partial{f}}{\partial{x_1}}\Big|_{X^{(0)}} \triangle x_1
  • \frac{\partial{f}}{\partial{x_2}}\Big|_{X^{(0)}} \triangle x_2
  • \frac{1}{2} \bigg[
    \frac{\partial 2{f}}{\partial{x_12}}\Big|_{X^{(0)}} \triangle x_1^2
  • \frac{\partial 2{f}}{\partial{x_1}\partial{x_2}}\Big|_{X{(0)}} \triangle x_1 \triangle x_2
  • \frac{\partial 2{f}}{\partial{x_22}}\Big|_{X^{(0)}} \triangle x_2^2
    \bigg]
  • ...
    其中$\triangle x_1 = x_1 - x_1^{(0)}, \triangle x_2 = x_2 - x_2^{(0)}$ 改写成矩阵形式:
    f(X) = f(X^{(0)}) +
    \bigg [
    \frac{\partial f}{\partial x_1} + \frac{\partial f}{\partial x_2}
    \bigg ] \bigg|{X^{(0)}}
    \begin{pmatrix}
    \triangle x_1
    \
    \triangle x_2
    \end{pmatrix} +
    \frac{1}{2} (\triangle x_1 , \triangle x_2)
    \begin{pmatrix}
    \frac{\partial ^2f}{\partial x_1^2} & \frac{\partial ^2f}{\partial x_1 \partial x_2}
    \
    \frac{\partial ^2f}{\partial x_2 \partial x_1} & \frac{\partial ^2f}{\partial x_2^2}
    \end{pmatrix} \bigg |
    {X^{(0)}}
    \begin{pmatrix}
    \triangle x_1
    \
    \triangle x_2
    \end{pmatrix}
  • ...
    即:
    f(X) = f(X^{(0)}) +
    \triangledown f(X{(0)})T \triangle X +
    \frac{1}{2} \triangle X^T H(X^{(0)}) \triangle X +
    ...
    $$
    其中H(X^{(0)})即二元函数f(x_1,x_2)X^{(0)}点处的海森矩阵,即二阶偏导数组成的方阵;\triangledown f(X^{(0)})是函数在该点处的梯度。

牛顿法

考虑无约束最优化问题:
\min_{x}f(x)

1.首先讨论单自变量情况

假设f(x)具有二阶连续导数,运用迭代的思想,我们假设第k次迭代值为x^{(k)}, 将f(x)进行二阶泰勒展开:
f(x)=f(x^{(k)})+f'(x^{(k)})(x-x^{(k)})+\frac{1}{2}f''(x^{(k)})(x-x^{(k)})^2+R_2(x)

其中R_2(x)(x-x^{(k)})^2的高阶无穷小,也叫做泰勒余项。

由于二阶可导,函数f(x)有极值的必要条件是极值点处一阶导数为0,令f'(x)为0解出x^{(k+1)}
f'(x^{(k)})+f''(x^{(k)})(x-x^{(k)})=0
x^{(k+1)} = x^{(k)} - \frac{f'(x^{(k)})}{f''(x^{(k)})}
至此,当数列满足收敛条件时我们可以构造一个初始值x^{(0)}和上述递推公式得到一个数列\{x^{(k)}\}不停地逼近极小值点

2.多自变量的情况

按照前面海森矩阵的介绍,在多自变量情况下,二阶泰勒展开式可写为:
f(X) = f(X^{(k)}) + \triangledown f(X^{(k)})^T \triangle X + \frac{1}{2} \triangle X^T H(X^{(k)}) \triangle X + ...
函数f(X)极值必要条件要求它必须是f(X)的驻点,即:
\triangledown f(X) = 0
由于\triangledown f(X^{(k)})H(X^{(k)}) = \triangledown ^2f(X^{(k)}) 分别表示函数f(X)的梯度和海森矩阵取值为X^{(k)}的实值向量和实值矩阵,我们分别将其记为g_kH_k,根据驻点解出X^{(k+1)}
g_k + H_k(X-X^{(k)}) = 0
X^{(k+1)} = X^{(k)} - H_k^{-1}g_k
同样我们可以构造一个迭代数列不停地去逼近函数的最小值点。

拟牛顿法

在牛顿法的迭代过程中,需要计算海森矩阵H^{-1},一方面有计算量大的问题,另一方面当海森矩阵非正定时牛顿法也会失效,因此我们考虑用一个n阶矩阵G_k = G(X^{(k)})来近似替代H^{-1}_k = H^{-1}(X^{(k)})`。

1.拟牛顿条件

根据前面的迭代式子:
\triangledown f(X) = g_k + H_k(X-X^{(k)}) = 0
X = X^{(k+1)}, 我们可以得到:
g_{k+1} - g_k = H_k(X^{(k+1)} - X^{(k)})
y_k = g_{k+1} - g_k,\delta_k = X^{(k+1)} - X^{(k)},那么可以得到:
y_k = H_k \delta_k

H_k^{-1} y_k = \delta _k
上述两个式子就是拟牛顿条件。

2.常见的拟牛顿法

根据拟牛顿条件,我们可以构造不同的G_k,这里仅列出常用的几种拟牛顿法,可根据需要再学习具体实现。

  • DFP算法(Davidon-Fletcher-Powell)
  • BFGS算法(Broydeb-Fletcher-Goldfarb-Shanno)
  • Broyden类算法

Reference

[1] 统计学习方法

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 转载-刘建平Pinard-www.cnblogs.com/pinard/p/5970503.html 在求解机器学...
    商三郎阅读 3,521评论 0 2
  • 以西瓜书为主线,以其他书籍作为参考进行补充,例如《统计学习方法》,《PRML》等 第一章 绪论 1.2 基本术语 ...
    danielAck阅读 4,627评论 0 6
  • #1996 AHSME ##1996 AHSME Problems/Problem 1 The addition ...
    abigtreenj阅读 1,441评论 0 0
  • Logistic回归 主要内容Sigmoid函数和Logistic回归分类器最优化理论初步梯度下降最优化算法数据中...
    geekLiu阅读 1,483评论 0 2
  • --- layout: post title: 梯度下降算法小结 date: 2017-01-11 09:00:...
    LevineHuang阅读 225评论 0 0