集成学习(6)- 分类模型性能评估及调优

  1. 性能评估参考前文的基本模型中所述
  2. 调优, 这里介绍两种方法,网格搜索和随机搜索进行超参数调优‘

1. 导入数据并查看

import numpy as np
import pandas as pd
df = pd.read_csv('./cancer.csv', sep = '\t')
print(df.shape)
df.head()

这是一份癌症的数据集。因为原始数据在一个csv文件中,我们导入pandas进行读取和处理,只后查看前 5项如下:


image.png

可以看到数据集中共有569个样本,每个样本包含id、标签值Diagnosis(其中M为恶性,Malignancy;B为良性,Benign)以及检测样本的其他信息。

2. 数据清洗拆分以及初步的分析查看

因为该数据已经是处理好的数据集,不在需要清洗,直接拆分成Xy

df.drop('ID', axis=1, inplace = True) #丢地id字段,跟M/B无关
X = df.iloc[:, 1:]
y = df['Diagnosis'].str.lower() #转化为小写,方便后面出图
y.value_counts() #统计m/b的总数

将和患病与否没有关系的id字段丢掉,在用df.iloc切片。在这里顺便多说一句,我们之前学的用pandas进行数据分析在这里也完全用的上。熟练使用pandas是用python进行数据分析和数据挖掘必须要过的坎,也是机器学习的基础。
在训练模型之前,我们可以习惯性的查看一下各项数据的相关性。我们知道数据集中有32列,除了id和Diagnosis之外还有30个字段。我们调用pandas里面的plotting.scatter_matrix方法可以一键查看每一项的数据分布以及每两项之间的相关性。
因为有30个字段,画在一张图上比较拥挤。我们先画出前6项感受一下:

df_1_plot = pd.plotting.scatter_matrix(X.iloc[:,:6], c=y, figsize=(20, 20), 
                                 marker='o', hist_kwds={"bins": 20}, s=40, alpha=.8)

代码中第一个参数X.iloc[:,:6]表示我们要分析数据框X中的前6项,c=y表示用的y的标签值来区分颜色,本案例中y取值为m或者b,所有有两种颜色。效果如下:


2项值.png

其中每一行为数据框中一列值的情况,包含该列数值的概率分布图,以及该列与其他5列的相关性散点图。通过这张图可以很直观的感受到用那些指标可以更容易的区分m和b

3. 创建模型并训练

之前我们说过使用sklearn创建一个模型+训练+预测一般都是3-4行代码搞定,因为sklearn做了大量的封装,方便我们使用。下面我们就在来一遍声明模型+训练+预测并输出算法在test数据集上的准确率。

from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y , test_size = 0.2)

knn = KNeighborsClassifier()
knn.fit(X_train, y_train)
y_ = knn.predict(X_test)
score1_ = (y_ == y_test).mean()
print('使用算法的默认参数获得的正确率为: {:.3f}'.format(score1_))
>>>使用算法的默认参数获得的正确率为: 0.904

可以看到即使使用KNN算法的默认参数,也依然获得了90%的正确率。原因其实我们在上面的散点图矩阵里面弄也能窥见一斑:m和b的边界还算是比较明显的,也就是有比较明显的决策边界。这样除了边界上的点可能会出错外,其他点的“周围邻居”大部分都是同一类型,好区分。即使在边界上,因为是二分类随便猜也有50%的概率对。下面我们就着重讲述如何提高模型的精度。

4. 使用GridSearchCV方法寻找最佳参数

之前我们提到过KNN算法中有k值,权重weight,距离计算方式等参数会影响模型的精度。在一开始,我们通过使用for循环,遍历每个参数来查看每个参数下模型的准确率。理论上如果有三个参数,我们可以嵌套三个for循环逐个遍历每种组合来获得最佳参数,但是确实太low!
我们知道sklearn最大的特点就是封装!sklearn下的model_selection模块里面已经封装好了GridSearchCV这个方法来帮助我们完成最佳参数寻找这个过程。GridSearchCV全称就是Grid Search Cross validation,从名称我们就可以知道该方法就是用不同参数形成的网格使用交叉验证方法获取正确率最大的参数组合。下面我们就来试一试:

from sklearn.model_selection import train_test_split
from sklearn.model_selection import GridSearchCV # GridSearchCV: 网格搜索 + cross valdation, 寻找最佳参数组合

knn = KNeighborsClassifier()
parameters_group = {'n_neighbors': [i for i in range(1,31)],
                     'weights' : ['distance', 'uniform'],
                      'p' : [1,2]}
grid_knn = GridSearchCV(knn, parameters_group, scoring='accuracy', cv=6)
grid_knn.fit(X_train, y_train)

上面的代码中,我们先创建了一个待遍历的参数组合parameters_group,包含k值从1到30,权重,以及p值(其中1为为曼哈顿距离L1,2为欧式距离L2),然后创建一个模型grid_knn并调用GridSearchCV方法把knn和待遍历的参数组合放进去在训练,结果如下:

image.png

训练结束只后,我们可以调用模型自带的best_estimator_/best_params_/best_score_查看结果:

print(grid_knn.best_estimator_)
print(grid_knn.best_params_)
print(grid_knn.best_score_)
>>>KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
                     metric_params=None, n_jobs=None, n_neighbors=10, p=1,
                     weights='distance')
>>>{'n_neighbors': 10, 'p': 1, 'weights': 'distance'}
>>>0.9472527472527472

可以看到找到一组最佳参数:'n_neighbors': 10, 'p': 1, 'weights': 'distance',并是模型在训练集上的精度提高到了94.7%。那么在测试集上的表现呢?

grid_y_ = grid_knn.predict(X_test)
score2_ = (grid_y_ == y_test).mean()
print('使用GridSearchCV获得的参数的模型正确率为: {:.3f}'.format(score2_))
>>> 使用GridSearchCV获得的参数的模型正确率为: 0.921

相比于默认参数的正确率score1_的90%提高了2个百分点。

  1. 绘制混淆矩阵和ROC曲线
from sklearn.preprocessing import LabelEncoder

X = df.iloc[:,2:].values
y = df.iloc[:,1].values
le = LabelEncoder()    #将M-B等字符串编码成计算机能识别的0-1
y = le.fit_transform(y)
le.transform(['M','B'])
# 数据切分8:2
from sklearn.model_selection import train_test_split

X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,stratify=y,random_state=1)
from sklearn.svm import SVC
pipe_svc = make_pipeline(StandardScaler(),SVC(random_state=1))
from sklearn.metrics import confusion_matrix

pipe_svc.fit(X_train,y_train)
y_pred = pipe_svc.predict(X_test)
confmat = confusion_matrix(y_true=y_test,y_pred=y_pred)
fig,ax = plt.subplots(figsize=(2.5,2.5))
ax.matshow(confmat, cmap=plt.cm.Blues,alpha=0.3)
for i in range(confmat.shape[0]):
    for j in range(confmat.shape[1]):
        ax.text(x=j,y=i,s=confmat[i,j],va='center',ha='center')
plt.xlabel('predicted label')
plt.ylabel('true label')
plt.show()
image.png
# 绘制ROC曲线:
from sklearn.metrics import roc_curve,auc
from sklearn.metrics import make_scorer,f1_score
scorer = make_scorer(f1_score,pos_label=0)
gs = GridSearchCV(estimator=pipe_svc,param_grid=param_grid,scoring=scorer,cv=10)
y_pred = gs.fit(X_train,y_train).decision_function(X_test)
#y_pred = gs.predict(X_test)
fpr,tpr,threshold = roc_curve(y_test, y_pred) ###计算真阳率和假阳率
roc_auc = auc(fpr,tpr) ###计算auc的值
plt.figure()
lw = 2
plt.figure(figsize=(7,5))
plt.plot(fpr, tpr, color='darkorange',
         lw=lw, label='ROC curve (area = %0.2f)' % roc_auc) ###假阳率为横坐标,真阳率为纵坐标做曲线
plt.plot([0, 1], [0, 1], color='navy', lw=lw, linestyle='--')
plt.xlim([-0.05, 1.0])
plt.ylim([-0.05, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('Receiver operating characteristic ')
plt.legend(loc="lower right")
plt.show()
image.png

参考:

  1. 知乎: 机器学习模型评估与超参数调优详解,https://zhuanlan.zhihu.com/p/140040705
    作者萌弟
  2. Datawhale开源项目:机器学习集成学习与模型融合(基于python)
    作者: 李祖贤,陈琰钰,赵可,杨毅远,薛传雨
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,458评论 6 513
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,030评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,879评论 0 358
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,278评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,296评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,019评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,633评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,541评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,068评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,181评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,318评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,991评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,670评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,183评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,302评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,655评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,327评论 2 358

推荐阅读更多精彩内容