Python数据挖掘017-中医证型关联规则

项目目标:根据乳腺癌患者的病理信息,挖掘患者的症状与中医证型之间的关联关系,特别是各中医证素与乳腺癌TNM分期之间的关系。

原始数据是根据问卷调查得到,基本挖掘流程为:

image.png

1. 数据预处理

属性归约:收集到的数据集案由73个属性,但为了更有效的挖掘,此处仅仅选择6种证型得分,TNM分期的属性值构成数据集。如下:


image.png

1.1 数据变换

主要采用属性构造和数据离散化两种方法来处理。首先通过属性构造,获得证型系数,然后通过聚类算法对数据进行离散化处理,形成建模数据。

本案例提供的数据集是已经经过属性构造得到了证型系数,故而只需要离散化处理即可。

由于Apriori关联规则算法无法处理连续型数值变量,为了将原始数据格式转换为适合建模的格式,需要对数据进行离散化处理。此处采用聚类算法对各证型系数进行离散化处理,将每个属性聚成4类。
比如:


image.png
from sklearn.cluster import KMeans #导入K均值聚类算法
k=4
result = pd.DataFrame()
for col in list('ABCDEF'):
    print('正在进行{}列的聚类'.format(col))
    kmodel=KMeans(n_clusters = k, n_jobs = 4) 
    kmodel.fit(data[col].values.reshape(-1,1)) #训练模型
    r1=pd.DataFrame(kmodel.cluster_centers_,columns=[col]) # 聚类中心
    r2=pd.Series(kmodel.labels_).value_counts() # 分类统计
    r2=pd.DataFrame(r2,columns=[col+'n']) # 记录各个类别的数目
    r=pd.concat([r1,r2],axis=1).sort_values(col)
    # 匹配聚类中心和类别数目
    r.index=[1,2,3,4]
    r[col]=r[col].rolling(2).mean()
    #rolling mean()用来计算相邻2列的均值,以此作为边界点。
    r[col][1]=0.0
    # 这两句代码将原来的聚类中心改为边界点。
    result=result.append(r.T)

得到的result结果为:


image.png
for col in 'ABCDEF':
    bins=np.append(result.loc[col,:].values,1000)
    data[col+'_cls']=pd.cut(data[col],bins=bins,labels=[col+str(i) for i in range(k)],include_lowest=True)
image.png

2. 关联规则挖掘

image.png

关联规则挖掘的一个难点是设置合理的最小支持度,最小置信度,目前并没有统一的标准,大部分都是根据业务经验设置初始值,经过多次调整,获取与业务相符的关联规则结果。

此处根据多次调整,结果实际业务分析,选取的输入参数为:最小支持度6%,最小置信度75%。

首先要对上面的数据进行one-hot编码,可以用pd.get_dummies来完成

data2=pd.get_dummies(data)
print(data2.shape)
print(data2.head(10))
image.png

然后使用关联规则挖掘,代码为:

#自定义连接函数,用于实现L_{k-1}到C_k的连接
def connect_string(x, ms):
    x = list(map(lambda i:sorted(i.split(ms)), x))
    l = len(x[0])
    r = []
    for i in range(len(x)):
        for j in range(i,len(x)):
            if x[i][:l-1] == x[j][:l-1] and x[i][l-1] != x[j][l-1]:
                r.append(x[i][:l-1]+sorted([x[j][l-1],x[i][l-1]]))
    return r

#寻找关联规则的函数
def find_rule(d, support, confidence, ms = u'--'):
    result = pd.DataFrame(index=['support', 'confidence']) #定义输出结果
  
    support_series = 1.0*d.sum()/len(d) #支持度序列
    column = list(support_series[support_series > support].index) #初步根据支持度筛选
    k = 0
  
    while len(column) > 1:
        k = k+1
        print(u'\n正在进行第%s次搜索...' %k)
        column = connect_string(column, ms)
        print(u'数目:%s...' %len(column))
        sf = lambda i: d[i].prod(axis=1, numeric_only = True) #新一批支持度的计算函数

        #创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。
        d_2 = pd.DataFrame(list(map(sf,column)), index = [ms.join(i) for i in column]).T

        support_series_2 = 1.0*d_2[[ms.join(i) for i in column]].sum()/len(d) #计算连接后的支持度
        column = list(support_series_2[support_series_2 > support].index) #新一轮支持度筛选
        support_series = support_series.append(support_series_2)
        column2 = []

        for i in column: #遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?
            i = i.split(ms)
            for j in range(len(i)):
                column2.append(i[:j]+i[j+1:]+i[j:j+1])

        cofidence_series = pd.Series(index=[ms.join(i) for i in column2]) #定义置信度序列

        for i in column2: #计算置信度序列
            cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))]/support_series[ms.join(i[:len(i)-1])]

        for i in cofidence_series[cofidence_series > confidence].index: #置信度筛选
            result[i] = 0.0
            result[i]['confidence'] = cofidence_series[i]
            result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]

    result = result.T.sort_values(['confidence','support'], ascending = False) #结果整理,输出
    print(u'\n结果为:')
    print(result)

    return result
support = 0.06 #最小支持度
confidence = 0.75 #最小置信度
ms = '---' #连接符,默认'--',用来区分不同元素,如A--B。需要保证原始表格中不含有该字符
find_rule(data2, support, confidence, ms)
image.png

上面的关联规则表示的含义是:A2和F3可以推导出H4证型。且C2和F3也可以推导出H4证型。

需要注意的是:并非所有关联规则都有意义,所以需要根据实际情况来筛选最终的规则。

参考资料:

《Python数据分析和挖掘实战》张良均等

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,772评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,458评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,610评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,640评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,657评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,590评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,962评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,631评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,870评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,611评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,704评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,386评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,969评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,944评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,179评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,742评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,440评论 2 342

推荐阅读更多精彩内容

  • 单选题 1. 某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题?(A) A...
    山的那边是什么_阅读 33,420评论 2 59
  • 第三章 数据库系统 3.1 数据库管理系统的类型 通常有多个分类标准。如按数据模型分类、按用户数分类、按数据库分布...
    步积阅读 2,671评论 0 7
  • 如今,共享经济盛行,从车子到房子,共享经济的浪潮正扑面而来,就像1999年的电子商务一样。而共享经济是什么呢?汤姆...
    众步阅读 194评论 0 0
  • 日本游记——美食篇 他们告诉我说去到日本你不去尝尝那里地道的拉面,寿司,牛肉,三文鱼,酒屋还有螃蟹就别说你有去日本...
    安利女神谌宝连阅读 260评论 0 2
  • 很偶然的机会,在网上看到了长投网的“21天理财小白训练营”的一个广告。仔细看看课程设置,有关于常见投资品的介绍,有...
    Adamguang阅读 146评论 1 0