本文来自我的个人博客 https://www.zhangshenghai.com/posts/13076/
本系列是《统计学习方法》这本书的读书笔记,本博客会陆续更新笔记内容。
统计学习
对象:数据
目的:对数据进行预测和分析
方法:监督学习、非监督学习、半监督学习、强化学习(本书主要研究监督学习)
监督学习
每个具体的输入是一个实例,通常由特征向量表示。
输入实例x的特征向量:
与不同,后者表示多个输入变量中的第个:
训练集通常表示为:
- 回归问题:输入变量与输出变量均为连续变量的预测问题
- 分类问题:输出变量为有限个离散变量的预测问题
- 标注问题:输入变量与输出变量均为变量序列的预测问题
输入与输出的随机变量X和Y具有联合概率分布的假设是监督学习关于数据的基本假设。
模型属于由输入空间到输出空间的映射的集合,这个集合就是假设空间。
监督学习分为学习和预测两个过程,可用下图来描述:
监督学习可以概括如下:从给定有限的训练数据出发,假设数据是独立同分布的,而且假设模型属于某个假设空间,应用某一评价准则,从假设空间中选取一个最优的模型,使它对已给训练数据及未知测试数据在给定评价标准意义下有最准确的预测。
统计学习三要素
统计学习方法 = 模型 + 策略 + 算法。
模型
假设空间中的模型一般有无穷多个,假设空间用表示。
假设空间可以定义为决策函数的集合: ,通常是由一个参数向量决定的函数族:
假设空间也可以定义为条件概率的结合:,通常是由一个参数向量决定的条件概率分布族:
策略
损失函数和风险函数
有了模型的假设空间,统计学习接着考虑的就是按什么样的准则学习。
- 损失函数:度量模型一次预测的好坏,如0-1损失函数、平方损失函数、绝对损失函数、对数损失函数。
- 风险函数:度量平均意义下模型预测的好坏。
损失函数的期望(风险函数):
用P(X, Y)可以直接求出P(Y | X),但我们不知道。
模型关于训练数据集的平均损失称为经验风险或经验损失:
根据大数理论,当样本N趋于无穷时,趋于,一个很自然的想法是用来估计。但现实中训练样本有限,要对经验风险进行矫正,这就关系到监督学习的两个基本策略:经验风险最小化和结构风险最小化。
经验风险最小化和结构风险最小化
按照经验风险最小化求最优模型就是求解最优化问题:
当样本容量很小时,经验风险最小化的效果未必很好,会产生过拟合(over-fitting),结构风险最小化由此提出。
结构风险的定义是:
按照结构风险最小化求最优模型就是求解最优化问题:
这时,监督学习的问题就编程了经验风险或结构风险函数的最优化问题。
算法
将统计学习问题归结为最优化问题之后,统计学习的算法成为求解最优化问题的算法。
模型评估与模型选择
训练误差与测试误差
训练误差是模型关于训练集的平均损失:
测试误差是模型关于测试集的平均损失:
测试误差反应了学习方法对未知的测试数据集的预测能力。
过拟合与模型选择
下图是训练误差和测试误差与模型复杂度的关系。当模型的复杂度增大时,训练误差会逐渐减小;而测试误差会先减小,达到最小值后又增大。
正则化与交叉验证
正则化
正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。
正则化一般具有如下形式:
其中,第1项是经验风险,第2项是正则化项,为调整两者之间关系的系数。
回归问题中:
交叉验证
如果给定的样本数据充足,进行模型选择的一种简单方法是随机地将数据集分为三部分,分别为训练集、验证集和测试集。训练集用来训练模型,验证集用于模型的选择,而测试集用于最终对学习方法的评估。
但在数据不充足的情况下,为选择好的模型,可以使用交叉验证。交叉验证的基本想法是重复地使用数据,把给定的数据进行切分,将切分的数据集组合为训练集与测试集,在此基础上反复地进行训练、测试以及模型选择。
简单交叉验证
将数据分为训练集和测试集,然后用训练集在各种条件下训练模型从而得到不同模型,在测试集桑拿评价各个模型的测试误差,选出测试误差最小的模型。
S折交叉验证
应用最多的是S折交叉验证。首先随机地将已给数据切分为S个互不相交的大小相同的子集,然后利用S-1个子集的数据训练模型,利用余下的子集测试模型,将这一过程对可能的S种选择重复进行,最后选出S次评测中平均测试误差最小的模型。
留一交叉验证
S折交叉验证的特殊情形是S = N,称为留一交叉验证,往往在数据缺乏的情况下使用。这里的N是给定数据集的容量。
泛化能力
泛化误差
可以通过比较泛化误差上界来比较学习方法的泛化能力。
泛化误差上界的性质:样本容量增加,泛化误差趋于0;假设空间容量越大,泛化误差越大。
定理(泛化误差上界):对二分类问题,当假设空间是有限个函数的集合时,对任意一个函数,至少以概率,以下不等式成立:
生成模型与判别模型
监督学习方法可以分为生成方法和判别方法,所学到的模型分别称为生成模型和判别模型。
生成方法由数据学习联合概率分布P(X, Y),然后求出条件概率分布P(Y | X)作为预测的模型,即生成模型:
典型的生成模型由:朴素贝叶斯法和隐马尔可夫模型。
判别方法由数据直接学习决策函数f(X)或者条件概率分布P(Y | X)作为预测的模型,即判别模型。典型的判别模型包括:k近邻法、感知机、决策树、Logistic回归模型、最大熵模型、支持向量机、提升方法和条件随机场等。
各自的优缺点:
- 生成方法:可还原出联合概率分布P(X,Y),而判别方法不能。生成方法的收敛速度更快,当样本容量增加的时候,学到的模型可以更快地收敛于真实模型;当存在隐变量时,仍可以使用生成方法,而判别方法则不能用。
- 判别方法:直接学习到条件概率或决策函数,直接进行预测,往往学习的准确率更高;由于直接学习Y=f(X)或P(Y|X),可对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习过程。
分类问题
二分类问题常用的评价指标是精确率(precision)和召回率(recall)。
精确率定义为
召回率定义为
其中:
TP (true positive) 将正类预测为正类
FN (false negative) 将正类预测为负类
FP (false positive) 将负类预测为正类
TN (true negative) 将负类预测为负类
是精确率和召回率的调和均值,即
标注问题
评价标注模型的指标与评价分类模型的指标一样,可以认为标记问题是分类问题的一个推广。
标注问题的输入是一个观测序列,输出的是一个标记序列或状态序列。也就是说,分类问题的输出是一个值,而标注问题输出是一个向量,向量的每个值属于一种标记类型。
标注常用的统计学习方法有:隐马尔可夫模型、条件随机场。
回归问题
回归模型是表示输入变量到输出变量之间映射的函数,回归问题的学习等价于函数拟合。
最常用的损失函数是平方损失函数,在此情况下,回归问题可以由著名的最小二乘法求解。