决策树算法

参见:http://blog.csdn.net/qunxingvip/article/details/51501541 说的比较详细

下面缺失部分有错误,已经删除

决策树 是一种监督学习算法,可用于分类问题也可以用到回归问题。

决策树的构造:根据某种规则选取一个属性,;利用该属性的值把数据分成不同的分支,每个分支再递归的调用上面进行分支的方法,当该属性对应的数据都是同一类数据的时候停止进行。

对不同选择属性的方法,对应不同的决策树算法。

利用信息增益最大化的是ID3算法

利用信息增益率最大化的是C45算法

在R语言中,rpart中分类或者回归的算法是利用CART算法实现的。

信息熵:反映了数据的昏乱程度,信息熵越大 数据的昏乱程度越高。 

信息增益:反应信息的减少程度,根结点信息熵 -- 分类后的条件熵

决策树的剪枝:

1,首先构造出完整的决策树,根据叶子结点所在邻近父结点,计算父结点的信息熵 与分类后的条件熵的差,大于0的时候进行剪枝。对其他结点进行同样的操作(后剪枝)

2,在决策树构造结点的时候,计算两者的差进行剪枝(先剪枝)

3,构造好决策树, 第一次利用1去除几个结点形成一个树T1,第二次在T1的基础上剪枝后形成T2,,,,一直到只有一个结点Tn。利用测试集,在T1 到Tn中选出分类或者拟合效率最好的那个树。

决策树的优点

1.对特征敏感

2.当特征是连续值得时候,选取某个阈值对属性进行切分。

决策树的缺点

1.容易过拟合

其他:

1.熵,基尼系数有利于具有大量不同值得属性。

2.cart算法,对每个属性只进行二元划分

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 决策树理论在决策树理论中,有这样一句话,“用较少的东西,照样可以做很好的事情。越是小的决策树,越优于大的决策树”。...
    制杖灶灶阅读 11,178评论 0 25
  • 分类与预测 餐饮企业经常会碰到下面的问题: 如何预测未来一段时间内,哪些顾客会流失,哪些顾客最有可能成为VIP客户...
    Skye_kh阅读 11,430评论 3 15
  • 0x01 概述 决策树是附加概率结果的一个树状的决策图,是直观的运用统计概率分析的图法。机器学习中决策树是一个预测...
    Pino_HD阅读 5,296评论 0 0
  • 曾在我还是单身的时候就被人问过:爱情是追到手的吗? 答案当然不是,因为真正的感情根本不需要追的。 我所期待的一段爱...
    白丁苏客阅读 3,693评论 1 5
  • 投射 今天有好事情发生,都是我感兴趣的事。放松,信任一切。今天有不一样的内容。发现女儿更多的优点。 今天中午美美地...
    妈妈随笔阅读 1,607评论 4 2

友情链接更多精彩内容