机器学习算法实现(六):CART

CART算法R语言实践

第一步:数据集划分训练集和测试,比例是2:1

set.seed(1234)

index <-sample(1:nrow(iris),100)

iris.train <-iris[index,]

iris.test <-iris[-index,]


第二步:加载包含CART算法的R包

library(rpart)


第三步:构建CART模型

model.CART <-rpart(Species~.,data=iris.train)


第四步:模型应用到测试集

results.CART<-predict(model.CART,newdata=iris.test, type='class')


第五步:生成混淆矩阵

table(results.CART, iris.test$Species)

result.KNN/  setosa  versicolor  virginica

setosa        12      0            0

versicolor    0        21          3

virginica    0        0            14


CART算法原理

1分类回归树(CART,ClassificationAnd

Regression Tree)也属于一种决策树,分类回归树是一棵二叉树,且每个非叶子节点都有两个孩子。

2决策树生长的核心是确定决策树的分枝准则。

1)如何从众多的属性变量中选择一个当前的最佳分支变量;也就是选择能使异质性下降最快的变量。异质性的度量:GINI、TWOING、least squared deviation。前两种主要针对分类型变量,LSD针对连续性变量。

2)如何从分支变量的众多取值中找到一个当前的最佳分割点(分割阈值)。A、数值型变量——对记录的值从小到大排序,计算每个值作为临界点产生的子节点的异质性统计量。能够使异质性减小程度最大的临界值便是最佳的划分点。B、分类型变量——列出划分为两个子集的所有可能组合,计算每种组合下生成子节点的异质性。同样,找到使异质性减小程度最大的组合作为最佳划分点。

3在决策树的每一个节点上我们可以按任一个属性的任一个值进行划分。按哪种划分最好呢?有3个标准可以用来衡量划分的好坏:GINI指数、双化指数、有序双化指数。


参考文献:

本文转载自    http://www.360doc.com/userhome.aspx?userid=26290960&cid=10

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容