【实现】利用决策树推荐隐形眼镜类型

背景介绍:根据患者眼部状况的观察条件,利用决策树来向患者推荐隐形眼镜的类型。

1. 收集数据

数据集来自于UCI数据库的隐形眼镜数据集。

数据格式

2. 准备数据

解析tab键分割的数据行。

def read2DataSet(filename):

    fr= open(filename,'r')

    dataSet= [example.strip().split('\t') for example in fr.readlines()]

    lenseLabels= ['age','prescript','astigmatric','tearRate']#特征名称

    return dataSet, lenseLabels

3. 分析数据

快速检查数据,确保正确地解析数据内容,绘制最后的决策树型图。

4. 训练算法-生成决策树

思想(伪代码):

检测数据集中的每个子项是否属于同一分类:

    If    so    return    类标签

    Else

            寻找划分数据集的最好特征(--基于信息增益)

            划分数据集

            创建分支结点

                    for    每个划分的子集

                            调用自己,并增加返回结果到分支结点中

            return    分支结点

4.1 划分数据

def splitDataSet(dataSet, axis, value):

    """

    对数据集进行划分

    :param dataSet:数据集

    :param axis: 选择的特征,在该特征上对数据集进行划分;

    :param value: 特征的取值;划分依据(这种划分是多分支划分,依赖于每个标称属性的取值个数)

    :return: 划分后的子集(删除特征axis后的数据集);;方便进行下一次划分;;递归执行"""

    retDataSet= []

    for featVecin dataSet:

        if featVec[axis] == value:

            reducedFeatVec= featVec[:axis]

            reducedFeatVec.extend(featVec[axis+1:])

            retDataSet.append(reducedFeatVec)

    return retDataSet

4.2 选取最佳的划分方式

标准是 信息增益(Information Gain):

计算公式

香农熵:

香农熵计算公式

香农熵计算实现:

def calcShannonEnt(dataSet):

    numEntries= len(dataSet)

    labelCounts= {}

    for featVecin dataSet:

        currentLabel= featVec[-1]

        labelCounts[currentLabel] = labelCounts.get(currentLabel,0) + 1

    shannonEnt= 0.0

    for key in labelCounts:

        prob= labelCounts[key]/float(numEntries)

        shannonEnt-= prob*log(prob,2)

    return shannonEnt

以信息增益为评价指标,选出最佳的划分方式(穷举):

def chooseBestFeatureToSplit(dataSet):

    numFeatures= len(dataSet[0]) - 1#dataSet 数据格式:每一行最后为类标签

    baseEntropy= calcShannonEnt(dataSet)

    bestInfoGain= 0.0; bestFeature= -1

    for i in range(numFeatures):

        featList= [example[i] for examplein dataSet]

        uniqueVals= set(featList)

        newEntropy= 0.0

        for value in uniqueVals:

            subDataSet= splitDataSet(dataSet, i, value)

            prob= len(subDataSet)/float(len(dataSet))

            newEntropy += prob*calcShannonEnt(subDataSet)#加权

        infoGain= baseEntropy - newEntropy

    if (infoGain > bestInfoGain):#选信息增益最大的特征

            bestInfoGain= infoGain

            bestFeature= i

    return bestFeature

4.3 生成决策树

决策树的生成过程是一个递归的过程。那么,必须有终止条件,才能结束运行。

终止条件:

(1)结点中所有实例都是一个类别;

(2)结点中没有可供选择的特征(即,属性已经遍历完);此时,依据多数表决原则,返回该节点的分类标签。

针对情况二,多数表决函数:

def majorityCnt(classList):

    classCnt= {}

    for vote in classList:

        classCnt[vote] = classCnt.get(vote,0) + 1

    sortedClassCount= sorted(classCnt.items(),key=lambda a:a[1],reverse=True)

    return sortedClassCount[0][0]

千呼万唤始出来,重头戏---生成决策树:

def createTree(dataSet, labels):

    classList= [example[-1] for examplein dataSet]

    if classList.count(classList[0]) == len(classList):#结束条件1:结点中所有实例都是一个类别;

        return classList[0]

    if len(dataSet[0]) == 1:#结束条件2:结点中没有特征,只剩下类别标签---多数表决

        return majorityCnt(classList)

    bestFeat= chooseBestFeatureToSplit(dataSet)

    bestFeatLabel= labels[bestFeat]#特征的名称,eg:工资、性别等等----中间结点,进行判断

    myTree= {bestFeatLabel:{}}#对子节点进行划分

    del labels[bestFeat]#针对选定的特征--取不同的值,进行划分

    featValues= [example[bestFeat] for example in dataSet]

    uniqueValues= set(featValues)

    for value in uniqueValues:

        subLabels= labels[:]

        myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet,bestFeat,value),subLabels)

    return myTree

生成的决策树,结果如下:

决策树

为了更加形象直观,使用matplotlib工具画图。决策树的形状如下:

隐形眼镜决策树

5. 测试算法

编写测试函数可以验证决策树可以正确分类给定的数据实例。

6. 使用算法

def classify(inputTree, featLabels, testVec):

    firstStr= inputTree.keys()[0]

    secondDict= inputTree[firstStr]

    featIndex= featLabels.index(firstStr)

    for key in secondDict.keys():

        if testVec[featIndex] == key:

            if is instance(secondDict[key],dict):

                classLabel= classify(secondDict[key],featLabels,testVec)

            else:

                classLabel= secondDict[key]

    return classLabel

比如:一个测试用例:pre + myope + no + normal = soft

调用函数

输出结果为:

运行结果

7. 后续

为了方便下次使用,而不必重新生成决策树,我们使用pickle来进行保存。

def storeTree(inputTree, filename):

    import pickle

    fw= open(filename,'w')

    pickle.dump(inputTree,fw)

    fw.close()

下次读取时,使用:

def grabTree(filename):

    import pickle

    fr= open(filename)

    return pickle.load(fr)

其中:

pickle:

The pickle module implements a fundamental, but powerful algorithm for serializing and de-serializing a Python object structure. 该模块实现对python 数据对象的序列化和反序列化(保存和读取)。

pickle.dump(obj, file[, protocol])

Write a pickled representation of obj to the open file object file. 将python数据对象写到文件中;即保存。

pickle.load(file)

Read a string from the open file object file and interpret it as a pickle data stream, reconstructing and returning the original object hierarchy.从文件中读取信息,反序列化形成原来的数据对象,并返回。

8. 小结

决策树

优点:计算复杂度不高。输出结果易于理解,对中间值缺失不敏感;能方便理解数据中所蕴含的知识信息。

缺点:可能会过度匹配(overfitting)--剪枝;提前停止

适用数据类型:数值型和标称型。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,701评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,649评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,037评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,994评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,018评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,796评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,481评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,370评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,868评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,014评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,153评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,832评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,494评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,039评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,156评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,437评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,131评论 2 356

推荐阅读更多精彩内容