机器学习(九) 随机森林

随机森林是在Bagging策略的基础上进行修改后的一种算法。

  • 随机:数据采样随机,特征选择随机
  • 森林:很多个决策树并行放在一起

9.1 算法的基本原理

采取有放回的抽样方式,构造子数据集,保证不同子数据集之间的数量集一样。
利用子数据集来构建子决策树,每个子决策树输出一个结果。
统计子决策树的投票结果,得到最终的分类,就是随机森林的输出结果。
具体的构建过程如下:

  • 从样本中用 Bootstrap 采样选出n个样本
  • 从所有属性中随机选择K个属性,选择出最佳分割属性作为节点创建决策树
  • 重复以上两步m次
  • 统计这m个子决策树得出的结果,通过投票表决结果决定数据属于哪一类。

9.2 随机森林的优劣势

优势

  • 它能够处理很高维度的数据,并且不用做特征选择
  • 在训练完后,它能够给出哪些特征比较重要
  • 并行化处理,速度较快
  • 可以进行可视化展示,便于分析
  • 由于存在随机抽样,训练出来的模型方差小,泛化能力强
  • 由于进行随机选择决策树划分特征列表,在样本维度比较高时,依然具有比较高的性能
  • 对部分特征的缺失不敏感
    劣势
  • 在某些噪音比较比较大的特征上,RF模型容易陷入过拟;
  • 取值比较多的划分特征对RF的决策会产生更大的影响,从而有可能影响模型的效果。

9.3 sklearn调用及参数解释

class sklearn.ensemble.RandomForestClassifier(
    n_estimators=10, criterion='gini', max_depth=None, 
    min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0,
    max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, 
    min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, 
    random_state=None, verbose=0, warm_start=False, class_weight=None)

因为随机森林是很多个决策树并行计算,所以随机森林的很多参数与决策树的类似。
(1) 决策树参数:

  • criterion:"gini" or "entropy" (defaut = "gini")是计算属性的gini(基尼不纯度)还是entropy(信息增益),来选择最合适的节点。
  • splitter: ”best” or “random”(default=”best”)随机选择属性还是选择不纯度最大的属性,建议用默认。
  • max_features: 选择最适属性时划分的特征不能超过此值。
    当为整数时,即最大特征数;当为小数时,训练集特征数*小数;
    if “auto”, then max_features=sqrt(n_features).
    If “sqrt”, thenmax_features=sqrt(n_features).
    If “log2”, thenmax_features=log2(n_features).
    If None, then max_features=n_features.
  • max_depth: (default=None)设置树的最大深度,默认为None,这样建树时,会使每一个叶节点只有一个类别,或是达到min_samples_split。
  • min_samples_split:根据属性划分节点时,每个划分最少的样本数。
  • min_samples_leaf:叶子节点最少的样本数。
  • max_leaf_nodes: (default=None)叶子树的最大样本数。
  • min_weight_fraction_leaf: (default=0) 叶子节点所需要的最小权值
  • verbose:(default=0) 是否显示任务进程
    (2)随机森林特有的参数
  • n_estimators=10:决策树的个数,越多越好,但是性能就会越差,至少100左右(具体数字忘记从哪里来的了)可以达到可接受的性能和误差率。
  • bootstrap=True:是否有放回的采样。
  • oob_score=False:oob(out of band,带外)数据,即:在某次决策树训练中没有被bootstrap选中的数据。多单个模型的参数训练,我们知道可以用cross validation(cv)来进行,但是特别消耗时间,而且对于随机森林这种情况也没有大的必要,所以就用这个数据对决策树模型进行验证,算是一个简单的交叉验证。性能消耗小,但是效果不错。
  • n_jobs=1:并行job个数。这个在ensemble算法中非常重要,尤其是bagging(而非boosting,因为boosting的每次迭代之间有影响,所以很难进行并行化),因为可以并行从而提高性能。1=不并行;n:n个并行;-1:CPU有多少core,就启动多少job。
  • warm_start=False:热启动,决定是否使用上次调用该类的结果然后增加新的。
  • class_weight=None:各个label的权重。
    参数解释来自sklearn中随机森林的参数
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,463评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,868评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,213评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,666评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,759评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,725评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,716评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,484评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,928评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,233评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,393评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,073评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,718评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,308评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,538评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,338评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,260评论 2 352

推荐阅读更多精彩内容