02-Adaboosting

1、回顾boosting算法的基本原理

基本原理如下所示:

从图中可以看出,Boosting算法的工作机制是首先从训练集用初始权重训练出一个弱学习器1,根据弱学习的学习误差率表现来更新训练样本的权重,使得之前弱学习器1学习误差率高的训练样本点的权重变高,使得这些误差率高的点在后面的弱学习器2中得到更多的重视。然后基于调整权重后的训练集来训练弱学习器2.,如此重复进行,直到弱学习器数达到事先指定的数目T,最终将这T个弱学习器通过集合策略进行整合,得到最终的强学习器。 
这里涉及到四个具体的问题:
1)如何计算学习误差率e?
2)如何得到弱学习器权重系数a
3)如何更新样本权重D?
4)使用何种结合策略?
下一节将介绍如何解决上述四个问题

2、Adaboosting算法的基本思路

假设我们的训练样本是T={(x,y1),(x2,y2),...(xm,ym)}
训练集的在第k个弱分类器的输出权重为:


1)分类问题
分类问题的误差率很好理解和计算。由于多元分类是二元分类的推广,这里假设我们是二元分类问题,输出为{-1,1},则k个弱分类器Gk(x)在训练集上的加权误差率为

接着我们看弱学习器权重系数,对于二元分类问题,第k个弱分类器Gk(x)的权重系数为

从上式可以看出,如果分类误差率ek越大,则对应的弱分类器权重系数越小。
第三个问题,更新样本权重D,假设第k个弱分类器的样本集权重系数为D(k)=(wk1,wk2,...wkm),则对应的第k+1个弱分类器的样本集权重系数为

这里Zk是规范化因子

 从wk+1,i计算公式可以看出,如果第i个样本分类错误,则yiGk(xi)<0,导致样本的权重在第k+1个弱分类器中增大,如果分类正确,则权重在第k+1个弱分类器中减少.具体为什么采用样本权重更新公式,我们在讲Adaboost的损失函数优化时再讲。
最后一个问题是集合策略。Adaboost分类采用的是加权表决法,最终的强分类器为

2)回归问题
Adaboosting的回归问题是很多变种,这里我们以R2算法为准。
1、如何得到学习误差率???
1)计算该学习器在训练集上的最大误差

2)计算每个样本的相对误差

 这里是误差损失为线性时的情况,如果我们用平方误差

如果我们用的是指数误差

3)弱学习器的误差率:

2、计算弱学习器的权重系数

3、更新样本权重

这里Zk是规范化因子

最后是结合策略,和分类问题稍有不同,采用的是对加权的弱学习器取权重中位数对应的弱学习器作为强学习器的方法,最终的强回归器为

其中,Gk∗(x)是所有ln1/αk,k=1,2,....K的中位数值对应序号k∗对应的弱学习器。

3. AdaBoost分类问题的损失函数优化

Adaboost是模型为加法模型,学习算法为前向分步学习算法,损失函数为指数函数的分类问题。
模型为加法模型好理解,我们的最终的强分类器是若干个弱分类器加权平均而得到的。

前向分步学习算法也好理解,我们的算法是通过一轮轮的弱学习器学习,利用前一个弱学习器的结果来更新后一个弱学习器的训练集权重。也就是说,第k-1轮的强学习器为

而第k轮的强学习器为

上两式一比较可以得到

可见强学习器的确是通过前向分步学习算法一步步而得到的。
Adaboost损失函数为指数函数,即定义损失函数为

利用前向分步学习算法的关系可以得到损失函数为

令w′ki=exp(−yifk−1(x)), 它的值不依赖于α,G,因此与最小化无关,仅仅依赖于fk−1(x),随着每一轮迭代而改变。
将这个式子带入损失函数,损失函数转化为

首先,我们求Gk(x).,可以得到

将Gk(x)带入损失函数,并对α求导,使其等于0,则就得到了

其中,ek即为我们前面的分类误差率。

最后看样本权重的更新。利用fk(x)=fk−1(x)+αkGk(x)和w′ki=exp(−yi fk−1(x)),即可得:

4. AdaBoost二元分类问题算法流程

这里我们对Adaboost二元分类算法流程做一个总结。
输入为样本集T={(x,y1),(x2,y2),...(xm,ym)},输出为{-1, +1},弱分类器算法, 弱分类器迭代次数K。
输出为最终的强分类器f(x)
1)初始化样本权重为



2)对于k = 1,2,....,K
a) 使用权重为Dk的样本训练数据,得到弱分类器Gk(x)
b)计算Gk(x)的分类误差率



c) 计算弱分类器的权重系数

d) 更新样本的权重分布

这里Zk是规范化因子

3)构建最终分类器为:



对于Adaboost多元分类算法,其实原理和二元分类类似,最主要区别在弱分类器的系数上。比如Adaboost SAMME算法,它的弱分类器的系数

其中R为类别数。从上式可以看出,如果是二元分类,R=2,则上式和我们的二元分类算法中的弱分类器的系数一致。

5.Adaboost算法的正则化

为了防止Adaboost过拟合,我们通常也会加入正则化项,这个正则化项我们通常称为步长(learning rate)。定义为ν,对于前面的弱学习器的迭代

如果我们加上了正则化项,则有



ν 的取值范围为0<ν≤1。对于同样的训练集学习效果,较小的ν意味着我们需要更多的弱学习器的迭代次数。通常我们用步长和迭代最大次数一起来决定算法的拟合效果。
6.Adaboost小结

到这里Adaboost就写完了,前面有一个没有提到,就是弱学习器的类型。理论上任何学习器都可以用于Adaboost.但一般来说,使用最广泛的Adaboost弱学习器是决策树和神经网络。对于决策树,Adaboost分类用了CART分类树,而Adaboost回归用了CART回归树。
这里对Adaboost算法的优缺点做一个总结。
优点:
1)分类精度很高
2)可以使用各种回归分类模型来构建弱学习器,非常灵活。
3)作为简单的二元分类器时,构造简单,结果可理解
4)不容易发生过拟合
缺点:
对异常样本敏感,异常样本在迭代的过程中,可能获得更高的权重,影响最终的强学习器的预测准确性

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。