统计学习方法概论

本文来自我的个人博客 https://www.zhangshenghai.com/posts/13076/

本系列是《统计学习方法》这本书的读书笔记,本博客会陆续更新笔记内容。

统计学习

对象:数据

目的:对数据进行预测和分析

方法:监督学习、非监督学习、半监督学习、强化学习(本书主要研究监督学习)

监督学习

每个具体的输入是一个实例,通常由特征向量表示。

输入实例x的特征向量:
x_i = (x_i^{(1)},x_i^{(2)},..., x_i^{(n)})^T
x^{(i)}x_i不同,后者表示多个输入变量中的第i​个:
x_i = (x_i^{(1)},x_i^{(2)}, ...,x_i^{(n)} )^T
训练集通常表示为:
T = \{(x_1, y_1),(x_2, y_2) ,...,(x_N, y_N)\}

  • 回归问题:输入变量与输出变量均为连续变量的预测问题
  • 分类问题:输出变量为有限个离散变量的预测问题
  • 标注问题:输入变量与输出变量均为变量序列的预测问题

输入与输出的随机变量X和Y具有联合概率分布的假设是监督学习关于数据的基本假设。

模型属于由输入空间到输出空间的映射的集合,这个集合就是假设空间。

监督学习分为学习和预测两个过程,可用下图来描述:

监督学习可以概括如下:从给定有限的训练数据出发,假设数据是独立同分布的,而且假设模型属于某个假设空间,应用某一评价准则,从假设空间中选取一个最优的模型,使它对已给训练数据及未知测试数据在给定评价标准意义下有最准确的预测。

统计学习三要素

统计学习方法 = 模型 + 策略 + 算法。

模型

假设空间中的模型一般有无穷多个,假设空间用\digamma表示。

假设空间可以定义为决策函数的集合:\digamma = \{f| Y = f(X)\}​\digamma​通常是由一个参数向量决定的函数族:\digamma = \{f| Y = f_{\theta}(X), \theta \in R^n\}​

假设空间也可以定义为条件概率的结合:\digamma = \{P| P(Y|X)\}\digamma通常是由一个参数向量决定的条件概率分布族:\digamma = \{P| P_{\theta}(Y|X), \theta \in R^n\}​

策略

损失函数和风险函数

有了模型的假设空间,统计学习接着考虑的就是按什么样的准则学习。

  • 损失函数:度量模型一次预测的好坏,如0-1损失函数、平方损失函数、绝对损失函数、对数损失函数。
  • 风险函数:度量平均意义下模型预测的好坏。

损失函数的期望(风险函数):
R_{exp}(f) = E_p[L(Y, f(X))] = \int L(y, f(x))P(x, y)dxdy
用P(X, Y)可以直接求出P(Y | X),但我们不知道。

模型f(X)关于训练数据集的平均损失称为经验风险或经验损失:
R_{emp}(f) = \frac1N \sum_{i=1}^N L(y_i, f(x_i))
根据大数理论,当样本N趋于无穷时,R_{emp}(f)趋于R_{exp}(f),一个很自然的想法是用R_{emp}(f)来估计R_{exp}(f)。但现实中训练样本有限,要对经验风险进行矫正,这就关系到监督学习的两个基本策略:经验风险最小化和结构风险最小化。

经验风险最小化和结构风险最小化

按照经验风险最小化求最优模型就是求解最优化问题:
min_{f \in \digamma} \frac1N \sum_{i=1}^N L(y_i, f(x_i))
当样本容量很小时,经验风险最小化的效果未必很好,会产生过拟合(over-fitting),结构风险最小化由此提出。

结构风险的定义是:
R_{srm}(f)= \frac1N \sum_{i=1}^N L(y_i, f(x_i)) + \lambda J(f)
按照结构风险最小化求最优模型就是求解最优化问题:
min_{f \in \digamma} \frac1N \sum_{i=1}^N L(y_i, f(x_i)) + \lambda J(f)
这时,监督学习的问题就编程了经验风险或结构风险函数的最优化问题。

算法

将统计学习问题归结为最优化问题之后,统计学习的算法成为求解最优化问题的算法。

模型评估与模型选择

训练误差与测试误差

训练误差是模型Y = \hat f (X)​关于训练集的平均损失:
R_{emp}(\hat f) = \frac1N \sum_{i=1}^N L(y_i, \hat f(x_i))
测试误差是模型Y = \hat f (X)关于测试集的平均损失:
e_{test} = \frac1 {N'} \sum_{i=1}^{N'} L(y_i, \hat f(x_i))
测试误差反应了学习方法对未知的测试数据集的预测能力。

过拟合与模型选择

下图是训练误差和测试误差与模型复杂度的关系。当模型的复杂度增大时,训练误差会逐渐减小;而测试误差会先减小,达到最小值后又增大。

正则化与交叉验证

正则化

正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。

正则化一般具有如下形式:
min_{f \in \digamma} \frac1N \sum_{i=1}^N L(y_i, f(x_i)) + \lambda J(f)
其中,第1项是经验风险,第2项是正则化项,\lambda \geq 0为调整两者之间关系的系数。

回归问题中:
L(w) = \frac1N \sum_{i=1}^N(f(x_i;w)-y_i)^2 + \frac {\lambda}2 ||w||^2

L(w) = \frac1N \sum_{i=1}^N(f(x_i;w)-y_i)^2 + {\lambda} ||w||_1

交叉验证

如果给定的样本数据充足,进行模型选择的一种简单方法是随机地将数据集分为三部分,分别为训练集、验证集和测试集。训练集用来训练模型,验证集用于模型的选择,而测试集用于最终对学习方法的评估。

但在数据不充足的情况下,为选择好的模型,可以使用交叉验证。交叉验证的基本想法是重复地使用数据,把给定的数据进行切分,将切分的数据集组合为训练集与测试集,在此基础上反复地进行训练、测试以及模型选择。

简单交叉验证

将数据分为训练集和测试集,然后用训练集在各种条件下训练模型从而得到不同模型,在测试集桑拿评价各个模型的测试误差,选出测试误差最小的模型。

S折交叉验证

应用最多的是S折交叉验证。首先随机地将已给数据切分为S个互不相交的大小相同的子集,然后利用S-1个子集的数据训练模型,利用余下的子集测试模型,将这一过程对可能的S种选择重复进行,最后选出S次评测中平均测试误差最小的模型。

留一交叉验证

S折交叉验证的特殊情形是S = N,称为留一交叉验证,往往在数据缺乏的情况下使用。这里的N是给定数据集的容量。

泛化能力

泛化误差
R_{exp}(\hat f) = E_p[L(Y, \hat f(X))] = \int L(y, \hat f(x))P(x, y)dxdy
可以通过比较泛化误差上界来比较学习方法的泛化能力。

泛化误差上界的性质:样本容量增加,泛化误差趋于0;假设空间容量越大,泛化误差越大。

定理(泛化误差上界):对二分类问题,当假设空间是有限个函数的集合时\digamma = \{f_1, f_2, ..., f_d\},对任意一个函数f \in \digamma,至少以概率1-\delta,以下不等式成立:
R(f) \leq \hat R(f) + \varepsilon (d, N, \delta)

\varepsilon(d, N, \delta) = \sqrt {\frac 1{2N}(\log d+\log\frac1{\delta})}

生成模型与判别模型

监督学习方法可以分为生成方法和判别方法,所学到的模型分别称为生成模型和判别模型。

生成方法由数据学习联合概率分布P(X, Y),然后求出条件概率分布P(Y | X)作为预测的模型,即生成模型:
P(Y|X) = \frac {P(X, Y)}{P(X)}
典型的生成模型由:朴素贝叶斯法和隐马尔可夫模型。

判别方法由数据直接学习决策函数f(X)或者条件概率分布P(Y | X)作为预测的模型,即判别模型。典型的判别模型包括:k近邻法、感知机、决策树、Logistic回归模型、最大熵模型、支持向量机、提升方法和条件随机场等。

各自的优缺点:

  • 生成方法:可还原出联合概率分布P(X,Y),而判别方法不能。生成方法的收敛速度更快,当样本容量增加的时候,学到的模型可以更快地收敛于真实模型;当存在隐变量时,仍可以使用生成方法,而判别方法则不能用。
  • 判别方法:直接学习到条件概率或决策函数,直接进行预测,往往学习的准确率更高;由于直接学习Y=f(X)或P(Y|X),可对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习过程。

分类问题

二分类问题常用的评价指标是精确率(precision)和召回率(recall)。

精确率定义为
P = \frac {TP}{TP+FP}
召回率定义为
R = \frac {TP}{TP+FN}
其中:
TP (true positive) 将正类预测为正类
FN (false negative) 将正类预测为负类
FP (false positive) 将负类预测为正类
TN (true negative) 将负类预测为负类

F_1是精确率和召回率的调和均值,即
\frac 2{F_1} = \frac 1P+ \frac1R

F_1 = \frac {2TP}{2TP+FP+FN}

标注问题

评价标注模型的指标与评价分类模型的指标一样,可以认为标记问题是分类问题的一个推广。

标注问题的输入是一个观测序列,输出的是一个标记序列或状态序列。也就是说,分类问题的输出是一个值,而标注问题输出是一个向量,向量的每个值属于一种标记类型。

标注常用的统计学习方法有:隐马尔可夫模型、条件随机场。

回归问题

回归模型是表示输入变量到输出变量之间映射的函数,回归问题的学习等价于函数拟合。

最常用的损失函数是平方损失函数,在此情况下,回归问题可以由著名的最小二乘法求解。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,711评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,079评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,194评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,089评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,197评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,306评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,338评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,119评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,541评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,846评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,014评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,694评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,322评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,026评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,257评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,863评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,895评论 2 351