Deep learning 中的数学基础知识

1.微积分

导数:一个函数在某一点的导数描述了这个函数在这一点附近的变化率。
$$
f'(a) = \lim_{h \rightarrow 0} \frac{f(a+h)-f(a)}{h}
$$
梯度:多元函数的导数就是梯度。

一阶导数和梯度(gradient)

​ $f'(x)$ ;
$$
\nabla f(\bf{X}) = \frac{\partial f(\bf{X})}{\partial \bf{X}} = \begin{bmatrix}
\frac{\partial f(\bf{X})}{\partial {x_1}} \
\frac{\partial f(\bf{X})}{\partial {x_2}} \
\vdots\
\frac{\partial f(\bf{X})}{\partial {x_n}} \
\end{bmatrix}
$$
二阶导数与Hessian矩阵

$f''(x)$;
$$
\bf{H}(x)= \nabla^2f(\bf{X}) = \begin{bmatrix}
\frac{\partial ^2 f(\bf{X})}{\partial {x_1}^2} & \frac{\partial ^2 f(\bf{X})}{\partial {x_1}\partial {x_2}} & \cdots & \frac{\partial ^2 f(\bf{X})}{\partial {x_1}\partial {x_n}} &\
\frac{\partial ^2 f(\bf{X})}{\partial {x_2}\partial {x_1}} & \frac{\partial ^2 f(\bf{X})}{\partial {x_2}^2} & \cdots & \frac{\partial ^2 f(\bf{X})}{\partial {x_2}\partial {x_n}} &\
\vdots & \vdots & \ddots & \vdots \
\frac{\partial ^2 f(\bf{X})}{\partial {x_n}\partial {x_1}} & \frac{\partial ^2 f(\bf{X})}{\partial {x_n}\partial {x_2}} & \cdots & \frac{\partial ^2 f(\bf{X})}{\partial {x_n}^2} &\
\end{bmatrix}
$$
泰勒级数

输入为标量的泰勒级数:
$$
f(x_k + \delta) \approx f(x_k) +f'(x_k)\delta + \frac{1}{2}f''(x_k)\delta^2 + \cdots +\frac{1}{n!}f{(n)}(x_k)\deltan
$$
输入为矢量的泰勒级数(前三项):
$$
f(\bf{x}_k + \bf{\delta}) \approx f(x_k) +\nabla^Tf(\bf{x}_k) \bf{\delta} + \frac{1}{2}\bf{\delta^T}f''(\bf{x}_k)\bf{\delta}
$$
此时 满足 $\nabla^T f(\bf{x}_k) =0​$ 的点为平稳点,如果还有:

​ $\nabla^2 f(\bf{x}_k) > 0$ ,即 为正定矩阵,则 $\bf{x}_k$为一严格局部极小值点(反之,严格局部极大值点)

​ 如果 $\nabla^2 f(\bf{x}_k) =0$ ,即为不定矩阵,则是一个鞍点(如 $f(x)=x^3,x=0$时),此时需要考虑三阶导数。

问题为什么优化时选择梯度方向,梯度方向为什么是变化最快的方向?

:由泰勒级数展开式的前两项 $f(\bf{x}_k + \bf{\delta}) \approx f(x_k) +\nabla^Tf(\bf{x}_k) \bf{\delta} $ 可知,当$\delta$ 是一个模不变但方向不确定的矢量时,此时 $f(\bf{x}_k + \bf{\delta}) - f(x_k) \approx \nabla^Tf(\bf{x}_k) \bf{\delta} $ , 可知,当 $\delta = \nabla f(\bf{x}_k)$ 时,$\nabla^Tf(\bf{x}_k) \bf{\delta} = ||\nabla^2(\bf{x}_k) || $ ,此时取得最大的差值,也就是说 $\delta$ 取梯度方向是变化最大。 梯度下降法中的迭代方法就是负梯度方向,因为该方向下降最快!

2. 概率论

随机变量

累积分布函数

概率密度函数

高斯分布

独立同分布定理

3. 线性代数

方阵的特征值(Eigenvalues)与特征向量(Eigenvectors)
$$
\bf{Ax}= \lambda \bf{x}
$$

特征向量

特征值和特征向量的几何意义与物理意义**:

矩阵是数学中非常抽象的一个概念,广义上我们可以将矩阵看作一个运动。即矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换过程中,原向量主要发生旋转、伸缩的变化。 如果矩阵对某个或某些向量只发生伸缩变换,而不对这些向量产生旋转的效果,那么这些向量就称作这个矩阵的特征向量,伸缩的比例就是特征值。其物理意义就是运动的图景:特征向量在一个矩阵的作用下作伸缩运动,伸缩的幅度由特征值确定。

特征值示意图

特征分解的性质

对于 $\bf{Ax_i} = \lambda \bf{x_i}$ ,如果所有的特征值都不相同,则对应的所有特征向量都线性无关。此时 $\bf{A}$ 可以被对角化为:
$$
\bf{A=V \Lambda V^{-1}}
$$
其中 $\bf{V=[x_1,x_2,\cdots,x_n]}$ , $\Lambda = Diag (\lambda_1,\lambda_2,\cdots, \lambda_n)$ 。

并不是所有的方阵都可以被对角化,这里主要考虑对称矩阵($A= A^T$)的特征分解。

如果一个对称矩阵的特征值都不相同,则其相应的所有特征向量正交。($\bf{UUT=UTU=I}$)
$$
\begin{split} \bf{A =U \Lambda U^T=\begin{bmatrix} u_1,u_2,\cdots,u_n \end{bmatrix} } \begin{bmatrix}\lambda_1 & &\ & \ddots &\ & & \lambda_n\end{bmatrix} \begin{bmatrix} \bf{u_1^T\ u_2^T\ \vdots\u_n^T} \end{bmatrix} = \sum_{i=1}^n \lambda_i \bf{u_iu_i^T}
\end{split}
$$
对称矩阵的特征值都是实数。

二次型**(Quadratic Form):

给定矩阵 $\bf{A} \in R^{m \times n}$ ,函数
$$
\bf{x^TAx=\sum\sum}x_ix_ja_{ij}
$$
被称为二次型。

如果对于所有 $\bf{x} \in R^n$ ,有 $\bf{x^TAx} \geq 0$ ,则为半正定矩阵,此时 $\lambda(\bf{A}) \geq 0$ .

特征分解的应用——PCA的本质

PCA的本质就是协方差矩阵的对角化

4. 凸优化问题

凸集:一个集合中任意两点的连线都在该集合中,则这个集合是一个凸集。

一个函数 $f$ 是凸函数,满足:

  • 它的定义域是凸集;

  • 对于定义域中的任意两点 $x_1$、 $x_2$, 对任意 $0 \leq \alpha \leq 1$, 有

$$
f(\alpha x_1 +(1-\alpha)x_2) \leq \alpha f(x_1) + (1-\alpha) f(x_2)
$$

机器学习中的凸优化问题是一类特殊的优化问题。凸优化问题的形式是
$$
\min_{x\in S}f(x)
$$
其中 $f(x)$是凸函数,可行域 $S$ 是凸集。或等价为:
$$
\min_xf(x) \ \text{subject to} \quad g_i(x) \leq 0, \text{for} \quad i=1,2,\cdots,k
$$
其中$f(x)$ 和所有的约束函数 $g_i(x)都是凸函数。

凸优化问题的性质:它的局部最优解一定是全局最优解。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,948评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,371评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,490评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,521评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,627评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,842评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,997评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,741评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,203评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,534评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,673评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,339评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,955评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,770评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,000评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,394评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,562评论 2 349

推荐阅读更多精彩内容