集成学习(一)机器学习的数学基础

较为迅速的过一遍数学基础,优化理论也需要补充,此处暂时略过
目录
[toc] (简书不支持这样的目录格式)
一、 高等数学
四、随机过程

一、 高等数学

本部分,除了函数相关基础概念,需要重点掌握的有:极值问题,梯度相关(如梯度下降法),拉格朗日乘子法(如SVM推导用到),

1. 函数

1.1 函数的定义

  定义:设数集D\subset R,则称映射f:D\rightarrow R为定义在D上的函数,记为
y=f(x),x\in D

  对每个x\in D,按对应法则f,总有唯一确定的值y与之对应,这个值称为函数fx处的函数值,记为f(x)因变量y自变量x之间的这种依赖关系,通常称为函数关系

1.2 反函数

  设函数f:D\rightarrow f(D)是单射,则它存在逆映射f^{-1}: f(D)\rightarrow D,称此映射f^{-1}为函数f的反函数。

  按此定义,对每个y\in f(D),有唯一的x\in D,使得f(x)=y,于是有f^{-1}(y)=x,即反函数f^{-1}的对应法则是完全由函数f的对应法则所确定的。
  一般的,y=f(x), x\in D的反函数记为y=f^{-1}(x), x\in f(D)

1.3 复合函数

  设函数y=f(u)的定义域为D_f,函数u=g(x)的定义域为D_x,且其值域R_g\in D_t,则由下式确定的函数,
y=f[g(x)], x\in D_x
称为由函数u=g(x)与函数y=f(u)构成的复合函数,它的定义域为D_x,变量u成为中间变量

2. 导数

2.1 导数的定义

定义:设函数y=f(x)在点x_0的某个邻域内有定义,当自变量xx_0处取得增量\Delta x,如果\Delta y\Delta x之比在\Delta x \rightarrow 0时的极限存在,则称函数y=f(x)在点x_0处可导,并称这个极限为函数y=f(x)在点x_0处的导数,记为f^{\prime}(x_0),即
f^{\prime}(x_0)=\lim_{\Delta x \rightarrow 0} \frac{\Delta y}{\Delta x}=\lim_{\Delta x \rightarrow 0} \frac{f(x+\Delta x) - f(x_0)}{\Delta x}

也可记作y^{\prime}\mid _{x=x_0}, \frac{df(x)}{dx}\mid _{x=x_0}, \frac{dy}{dx}\mid _{x=x_0}

简而言之,导数就是因变量的增量与自变量的增量之比的极限

2.2 函数的求导法则

(1)函数的和差积商求导法则
$$$$

二、线性代数

三、概率论与梳理统计

四、随机过程

<span id="aaa">aaa</span>


refer:
datawhalechina/ensemble-learning (github.com)
机器学习数学基础(基于python)_哔哩哔哩_bilibili

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容