决策树学习与ID3算法C++实现

PS:看起来简书好像不支持MathJax,文章中的数学公式都没渲染出来,大家将就点看吧...(或者可以访问我的个人博客:http://blog.leanote.com/post/gaunthan/%E5%86%B3%E7%AD%96%E6%A0%91%E5%AD%A6%E4%B9%A0%E4%B8%8EID3%E7%AE%97%E6%B3%95%E5%AE%9E%E7%8E%B0)

决策树学习是以实例为基础的归纳学习,它从一类无序、无规则的事物(也就是概念)中推理出决策树表示的分类规则。

决策树


所谓决策树就是一棵表示“怎么做决定”的树。比如你现在考虑是否要去跑步,那么你也许会以这样的顺序来考虑:

  1. 天气怎么样?如果下雨我就不去了;不下的话,我再考虑考虑。
  2. 我状态怎么样?如果良好就出发吧,不然就算了吧。

如果将上面这个考虑(做决定)过程转化为一棵决策树,它会是下面这个样子的:

DecisionTree.png

注意上面列出的两个点之间是有优先级的,第一点显然是我们先考虑的。好的决策树的层次就表现了良好优先级,在顶层的属性(如“天气”),其决策优先级要高,这也意味着这一属性是可以最快导出结果的。

上面例子的决策树碰巧是一棵二叉树,实际上决策树可以是任意多叉的。

决策树学习


决策树学习采用的是自顶向下的递归方法,决策树的每一层结点依照某一属性值向下分为子结点,待分类的实例在每一结点处与该结点相关的属性值进行比较,根据不同的比较结果向相应的子节点扩展,这一过程在到达决策树的叶结点时结束,此时得到结论。

从根结点到叶结点的每一条路径都对应着一条合理的规则,规则间各个部分(各个层的条件)的关系是合取关系。整个决策树就对应着一组析取的规则。决策树学习算法的最大优点是,它是可以自学习的。

在学习的过程中,不需要使用者了解过多背景知识,只需对训练例子进行较好的标注,就能够进行学习。如果在应用中发现不符合规则的实例,程序会询问用户该实例的正确分类,从而生成新的分支和叶子,并添加到树中。

决策树学习相关定义


决策树学习算法是以信息熵为基础的。

下面是一些相关的定义:

自信息量

设信源X发出a_i的概率为p(a_i),在收到符号a_i之前,收信者对a_i的不确定性定义为a_i的自信息量I(a_i)。其中,
I(a_i) = -{log}_2\ p(a_i)

信息熵

自信息量只能反映符号的不确定性,而信息熵用来度量整个信源整体的不确定性,定义为:
H(X) = p(a_1)I(a_1) + p(a_2)I(a_2) + ··· + p(a_r)I(a_r) = -\sum_{i = 1}^r p(a_i)\ {log}_2\ p(a_i)

条件熵

设信源为X,收信者收到信息Y,用条件熵H(X|Y)来描述收信者在收到Y后对X的不确定性估计。设X的符号a_iY的符号b_jp(a_i|b_j)为当Yb_j时,Xa_i的概率,则有:
H(X|Y) = -\sum_{i = 1}^r\sum_{j = 1}^s p(a_i|b_j)\ {log}_2\ p(a_i|b_j)

平均互信息量

平均互信息量用来表示信号Y所能提供的关于X的信息量的大小,用I(X, Y)表示:
I(X, Y) = H(X) - H(X|Y)

决策树的构建


构建一棵决策树要解决4个问题:

  1. 收集待分类的数据。这些数据的所有属性应该是完全标注的。
  2. 设计分类原则。即数据的哪些属性可以被用来分类,以及如何将该属性量化。
  3. 分类原则的选择。即在众多分类准则中,每一步选择哪一准则使最终的树更令人满意。
  4. 设计分类停止条件。实际应用中数据的属性很多,真正有分类意义的属性往往是有限几个,因此在必要的时候应该停止数据集分类,这些准则包括:
  5. 该结点包括的数据太少不足以分裂;
  6. 继续分裂数据集对树生成的目标没有贡献;
  7. 树的深度过大不宜再分。

通用的决策树分裂目标是整棵树的熵总量最小,每一步分裂时,选择使熵减小最小的准则,这种方案使最具分类潜力的准则最先被提取出来。

构建流程大致如下图所示:

HowToBuildADecisionTree.png

ID3算法C++实现


ID3算法将信息熵的下降速度作为属性选择标准。

按照上一节提到的构建过程,我们以一个例子来说明具体如何应用ID3来构建决策树。

案例

现有某流感训练数据集,预定义两个类别:患流感和不患流感。其数据集如下所示:

Samples.png

构建过程

按照前面的流程图,第一步骤是计算各个属性的条件熵。条件熵的求取又依赖到信息熵,因此先讲述如何手算条件熵。

对于上面的例子,属性“体温”的条件熵的计算过程为:

  1. 分别计算每个值的信息熵,有
    H(体温_{=正常}) = 0
    H(体温_{=高}) = -{2\over3}log_2{2\over3} - {1\over3}log_2{1\over3} = 0.918296
    H(体温_{=很高}) = 0
  2. 求条件熵
    H(样本集S|体温) = {2\over7} * H(体温_{=正常}) + {3\over7} * H(体温_{=高}) + {2\over7}*H(体温_{=很高}) = {2\over7}*0 + {3\over7}*0.918296 + {2\over7}*0 = 0.393555

由于属性”体温“取“正常”或“很高”时,其结论均是单一的(一边倒),因此其信息熵为零(log\ 1 = 0嘛)。而当取“高”时,有3个样本,这3个样本中有两个结论是“患流感”,另一个是“不患流感”,因此其信息熵不为零。

对于其他的属性,同理可求得:
H(样本集S|头痛) = 0.857143
H(样本集S|肌肉痛) = 0.97925

由于“体温”的条件熵最小,因此决策树的第一个结点应该选用“体温”作为判断属性。

最后生成的决策树如下所示:

Result.png

设计思路

设计样本文件内容格式

为了能够简单使用样本数据,可以将文件内容置为以下:

headache     courbature      temperature    hasBirdFlu
1            1               0              0
1            1               1              1
1            1               2              1
0            1               0              0
0            0               1              0
0            1               2              1
1            0               1              1

第一行表出参与决策的属性以及结论。第二行到最后一行是样本数据,用数值来表达属性的取值。

属性列表、样本集的数据结构设计

得益于C++强大的容器库,可以使用 list 来表示这两个逻辑体:

struct Sample;  // 代表一行样本数据
typedef std::list<Sample> Samples; // 样本集类型
...
typdef std::string Attribute;   // 代表一个属性
typdef std::list<Attribute> Attributes; // 属性列表类型

决策树的数据结构设计

决策树本身是一棵树,而树的表示方式有好几种。简单起见,选择孩子兄弟表示法,即每棵树的根结点拥有一个指向其第一个孩子(即第一棵子树)和一个指向其兄弟(即其父亲的下一棵子树)的指针。

为了方便看出结点的决策,可以选用“(属性,属性值;结果)”这一格式来表示一个结点的内容,其中,根节点为空,内部结点没有“结果”项。

信息熵的求取

信息熵的求取涉及到属性的取值,以及属性取该值时的结论分布。下面的函数就是用于求取某一个属性取特定值时的信息熵,过程中的GetValueCntOfAttr()求取该属性取特定值时的样本个数(如“温度”取“正常”时有2个样本),GetTrueCntForValueOfAttr()求取该属性性取特定值时,结论为真的个数(如“温度”取“正常”时有0个为真的结论):

double CalcEntropyOf(const Samples& samples,
                     const Attribute& attr,
                     double attrValue)
{
    double total = GetValueCntOfAttr(samples, attr, attrValue);
    double trueResult = GetTrueCntForValueOfAttr(
                                    samples, attr, attrValue);
    // all has the same value
    if(total == trueResult || trueResult == 0)
        return 0;
    double trueRate = trueResult / total;
    double entropy = -(trueRate * log2(trueRate)) -
                        ((1 - trueRate) * log2(1 - trueRate));
    return entropy;
}

条件熵的求取

求一个属性的条件熵,需要先求出其各个取值的信息熵,然后根据求取条件熵的公式求取该属性的条件熵即可。注意过程中的GetValueTypeCntOfAttr()求取属性的值种类(如“温度”有3个取值类型):

double CalcConditionalEntropyOf(const Samples& samples,
                                const Attribute& attr)
{
    // calculate conditional entropy
    size_t valueTypeCnt = GetValueTypeCntOfAttr(samples, attr);
    double total = samples.size();
    double conditionalEntropy = 0;
    for(size_t value = 0; value != valueTypeCnt; ++value) {
        conditionalEntropy += GetValueCntOfAttr(samples, attr, value)
                                / total *
                                CalcEntropyOf(samples, attr, value);
    }
    return conditionalEntropy;
}

决策树的生成

DecisionTree* GenerateDecisionTree(const Samples& samples,
                                   const Attributes& attributes,
                                   const DecisionNode& root)
{
    if(attributes.empty()) {
        DecisionTree* tree = new DecisionTree(root);
        return tree;
    }
    DecisionTree* tree = new DecisionTree(root);
    const Attribute bestAttr = FindBestAttribute(samples, attributes);
    const size_t valueTypeCnt = GetValueTypeCntOfAttr(
                                            samples, bestAttr);
    for(size_t value = 0; value != valueTypeCnt; ++value) {
         double entropy = CalcEntropyOf(samples, bestAttr, value);
         if(entropy == 0) { // already know the decision
            size_t trueCnt = GetTrueCntForValueOfAttr(
                                        samples, bestAttr, value);
            size_t decision = trueCnt > 0 ? 1 : 0;
            DecisionNode subTreeNode(DN_LEAF_TYPE, bestAttr,
                                     value, decision);
            DecisionTree* subTree = new DecisionTree(subTreeNode);
            tree->addChild(subTree);
         }else {
            DecisionNode subTreeNode(DN_INNER_TYPE, bestAttr, value);
            // generate new attribute list
            Attributes newAttrs(attributes);
            newAttrs.remove(bestAttr);
            // generate new Samples
            Samples newSamples = GenerateSamplesByAttrValue(
                                        samples, bestAttr, value);
            DecisionTree* subTree = GenerateDecisionTree(
                            newSamples, newAttrs, subTreeNode);
            tree->addChild(subTree);
         }
    }
    return tree;
}

总结


如果你懂得了怎么手动进行这一过程,那么你离编码实现也不远了。

完整的程序代码我已经放到了github上:ID3-Implement。由于能力有限,不免出错。如果您发现了错误,请一定联系我!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容