集成学习

集成学习

集成学习 (ensemble learning) 是通过构建并结合多个学习器来完成学习任务。其一般结构为:

  • 先产生一组“个体学习器”(individual learner) 。个体学习器通常由一种或者多种现有的学习算法从训练数据中产生。

    • 如果个体学习器都是从某一种学习算法从训练数据中产生,则称这样的集成学习是同质的 homogenerous。此时的个体学习器也称作基学习器 base learner,相应的学习算法称作基学习算法。
    • 如果个体学习器是从某几种学习算法从训练数据中产生,则称这样的集成学习是异质的 heterogenous 。
  • 再使用某种策略将它们结合起来。集成学习通过将多个学习器进行组合,通常可以获得比单一学习器显著优越的泛化性能。

简单描述如下:

  • 如何得到若干个个体学习器
  • 如何选择一种结合策略,将这些个体学习器集合成一个强学习器。

集成学习之结合策略

  • 平均法(回归预测问题)
  • 投票法(分类预测问题)
  • 学习法(将训练集弱学习器的学习结果作为输入,将训练集的输出作为输出,重新训练一个学习期来得到最终结果。)

根据个体学习器的生成方式,目前的集成学习方法大概可以分作两类:

  • 个体学习器之间存在强依赖关系、必须串行生成的序列化方法,每一轮迭代产生一个个体学习器。其中以Boosting 为代表。
  • 个体学习器之间不存在强依赖关系、可同时生成的并行化方法。其中以 Bagging 和随机森林 Random Forest 为代表。

boosting

image.png

bagging

image.png

Boosting

Boosting 就是一族可以将弱学习器提升为强学习器的算法:

  • 先从初始训练集训练出一个基学习器。
  • 再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本在后续受到更多关注。
  • 然后基于调整后的样本分布来训练下一个基学习器。
  • 如此重复,直到基学习器数量达到事先指定的值M 。
  • 最终将这M个基学习器进行加权组合。

AdaBoost 算法

AdaBoot 算法两个核心步骤:

1、每一轮中如何改变训练数据的权值?

AdaBoost算法提高那些被前一轮弱分类器错误分类样本的权值,而降低那些被正确分类样本的权值。于是那些没有得到正确分类的数据由于权值的加大而受到后一轮的弱分类器的更大关注。

2、最后如何将一系列弱分类器组合成一个强分类器?

AdaBoost 采用加权多数表决的方法:

  • 加大分类误差率较小的弱分类器的权值,使得它在表决中起较大作用。
  • 减小分类误差率较大的弱分类器的权值,使得它在表决中起较小的作用。
image.png

缺点:

对异常样本敏感,异常样本在迭代中可能会获得较高的权重,影响最终的强学习器的预测准确性。

Bagging

Bagging的基本流程:

  • 经过 M 轮自助采样,可以得到 M 个包含 N 个训练样本的采样集。
  • 然后基于每个采样集训练出一个基学习器。
  • 最后将这 M 个基学习器进行组合,得到集成模型。

在使用 Bagging学习器进行预测时:

  • 分类任务采取简单投票法,取每个基学习器的预测类别的众数。
  • 回归任务使用简单平均法,取每个基学习器的预测值的平均。

从偏差-方差分解的角度来看:

  • Bagging主要关注降低方差,它能平滑强学习器的方差。因此它在非剪枝决策树、神经网络等容易受到样本扰动的学习器上效果更为明显。
  • Boosting 主要关注降低偏差,它能将一些弱学习器提升为强学习器。因此它在SVM 、knn 等不容易受到样本扰动的学习器上效果更为明显。

随机森林

随机森林中的基学习器的多样性不仅来自样本扰动,还来自属性扰动。这就是使得最终集成的泛化性能可以通过个体学习器之间差异度的增加而进一步提升。

随机森林的优点:

  • 训练可以高度并行化,对于大数据时代的大样本训练速度有优势。个人觉得这是的最主要的优点。
  • 由于可以随机选择决策树节点划分特征,这样在样本特征维度很高的时候,仍然能高效的训练模型。
  • 在训练后,可以给出各个特征对于输出的重要性
  • 由于采用了随机采样,训练出的模型的方差小,泛化能力强。
  • 对部分特征缺失不敏感。

RF的主要缺点有:

  • 在某些噪音比较大的样本集上,RF模型容易陷入过拟合。
  • 取值划分比较多的特征容易对RF的决策产生更大的影响,从而影响拟合的模型的效果。

构造随机森林

随机森林本质上市许多决策树的集合,其中每棵树都和其他树略有不同。背后的思想是,每棵树的预测可能都相对较好,但可能对部分数据过拟合。如果构造很多树,并且每棵树的预测都很好,但都以不同的方式过拟合,那么我们可以对这些树的结果取平均值来降低过拟合。

随机森林中树的随机化方法:

  • 通过选择用于构造树的数据点
  • 通过选择每次划分测试的特征

a、构造随机森林,需要确定用于构造的树的个数(RandomForestClassifier 和 RandomForestRegressor 的 n_estimators 参数)
b、要构造一棵树,首先要对数据进行自助采样。从 n_samples 个数据点中有放回地重复抽取一个样本,共抽取 n_samples次。
c、在每个结点处,算法随机选择特征的一个子集,并对其中一个特征寻找最佳测试,而不是对每个结点都寻找最佳测试。选择的特征个数由 max_features 参数来控制。

优点、缺点和参数

优点和缺点

  • 随机森林非常强大,通常不需要反复调节参数就可以给出很好的结果,也不需要对数据进行缩放。
  • 随机森林拥有决策树的所有优点,同时弥补了决策树的一些缺陷。
  • 对于维度非常高的稀疏数据,随机森林的表现往往不是很好。

参数:

  • n_estimators,n_estimators 总是越大越好,经验法则就是在你的时间/内存允许的情况下尽量多。
  • max_features, max_features 好的经验就是使用默认值:对于分类,默认值是 max_features=sqrt(n_features);对于回归,默认值是 max_features=n_features。

随机森林分类

from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split
from sklearn.datasets import load_breast_cancer
from sklearn.datasets import make_moons
import matplotlib.pyplot as plt
import numpy as np

X,y=make_moons(n_samples=100,noise=0.25,random_state=3)
X_train,X_test,y_train,y_test=train_test_split(X,y,stratify=y,random_state=42)

forest=RandomForestClassifier(n_estimators=5,random_state=2)
forest.fit(X_train,y_train)

cancer=load_breast_cancer()
X_train,X_test,y_train,y_test=train_test_split(cancer.data,cancer.target,random_state=0)
forest=RandomForestClassifier(n_estimators=100,random_state=0)
forest.fit(X_train,y_train)

print('Accuracy on training set:{:.3f}'.format(forest.score(X_train,y_train)))
print('Accuracy on test set:{:.3f}'.format(forest.score(X_test,y_test)))

def plot_feature_importances_cancer(model):
    n_features=cancer.data.shape[1]
    plt.barh(range(n_features),model.feature_importances_,align='center')
    plt.yticks(np.arange(n_features),cancer.feature_names)
    plt.xlabel('Feature importance')
    plt.ylabel('Feature')
    plt.show()

plot_feature_importances_cancer(forest)

参考链接

https://www.cnblogs.com/pinard/p/6131423.html
https://www.cnblogs.com/pinard/p/6133937.html

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,001评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,210评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,874评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,001评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,022评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,005评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,929评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,742评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,193评论 1 309
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,427评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,583评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,305评论 5 342
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,911评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,564评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,731评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,581评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,478评论 2 352

推荐阅读更多精彩内容