什么是好的模型结果?(监督学习模型的衡量)

  1. 连续变量的模型,如何来衡量模型结果?(回归)
  2. 二分类问题
  • 假设检验,p-value
  • confusion matrix 混淆矩阵
  • 召回率,准确率
  • F1-score
  • ROC & AUC

3.多分类模型如何衡量模型结果?
4.imbalanced问题


image.png

image.png

2. 连续变量的模型,如何来衡量模型结果?

image.png

误差:观测值和真值之间的差别
残差:预测值和观测值之间的差别

image.png

3. 二分类问题

  1. 假设检验
  • 原假设,事件,事件的概率分布
  • p-value: 在原假设成立时,出现观测值以及更极端情况的概率
  • 备择假设
  • Threshold分类阈值
  • 设立分类阈值的结果:第一类错误(假阳性):弃真,第二类错误:存伪
  • 定义阈值的分类效果:显著性水平α
  • α, β,1−β
  • ROC曲线以及其性质:
    0.横纵坐标,1. 一般来说面积>0.5, 2. 斜率为正
  • 什么样的ROC曲线更好?
  • ROC曲线历史
  • confusion matrix:弃真存伪
  • 召回率,准确率
  • F1-score

我们这⾥不涉及任何具体的统计分布


image.png
image.png
image.png
image.png

α=false positive rate
β=false negative rate
power =1−β = true positive rate

  • ROC曲线(衡量分类效果)以及其性质:

0.横纵坐标 横坐标:false positive 纵坐标:true positive

  1. 一般来说面积>0.5

  2. 斜率为正

3.位于45°线上方

image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png

计算F1 score

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.metrics import f1_score
y_true =  [0,0,0,0,1,0,0,0,0,1,1,1,1,0,0,0,1,1,1,0,0,0,0,0,0]
y_pred =  [0,0,0,0,1,1,0,0,0,0,0,1,0,1,1,0,0,1,1,0,0,0,1,0,1]
f1_score(y_true,y_pred)
from sklearn.metrics import precision_score, recall_score, accuracy_score
from sklearn.metrics import
precision_score(y_true, y_pred)
recall_score(y_true,y_pred) 
y_true =  [0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0]
y_pred =  [0,0,0,0,0,0,0,0,0,0,0,0,1,1,0,0,0,0,1,0,1,1,1,0,0]
from sklearn.metrics import f1_score,accuracy_score,precision_score,recall_score
accu=accuracy_score(y_true,y_pred)    #分类准确率
prec = precision_score(y_true,y_pred) #准确度
reca = recall_score(y_true,y_pred)  #召回率
F1_score = f1_score(y_true,y_pred)  

练习计算与画ROC

  1. 生成原始数据
  2. 使用模型进行分类
  3. 用ROC进行效果衡量
from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
from sklearn.cross_validation import train_test_split

X,y = make_classification(n_samples=10000,n_features=10,n_classes=2,n_informative=5) #特征,标签
X_train,X_test, y_train,y_test = train_test_split(X,y, test_size=0.2,random_state=0)
clf = LogisticRegression()
clf.fit(X_train,y_train)

from sklearn.metrics import roc_auc_score,roc_curve
preds = clf.predict_proba(X_test)[:,1]
fpr,tpr,_=roc_curve(y_test,preds)

df = pd.DataFrame(dict(fpr=fpr,tpr=tpr))
roc_auc= roc_auc_score(y_test,preds)
plt.figure(figsize=[9,8])
lw = 2
    
plt.plot(fpr, tpr, color='orange',
         lw=lw, label='ROC curve (area = %0.2f)' % roc_auc)
plt.plot([0, 1], [0, 1], color='navy', lw=lw, linestyle='--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('Receiver operating characteristic Line')
plt.legend(loc="lower right")
plt.show()

4. 多分类模型,如何衡量模型结果?

  • 直观上不容易像连续变量一样定义每个预测值离观测值的距离(欧几里得距离)
  • 多分类时,多用cross-entropy 来衡量分类的结果
image.png
  • 信息熵的特点:
    • 衡量混乱程度,信息熵越大,越混乱

5. imbalanced问题

  • imbalance data就是指正负样本数量相差太大,一类占10%甚至1%以下,另外一类占绝大多数,这对机器学习算法是个现实的挑战。

  • 用什么样的衡量方式?不能光看accuracy

  • 1000个样本,大多数(980)都属于负样本,正样本只有20个,算法容易被负样本带偏。

  • 传统方法(决策树,逻辑回归)倾向于预测样本量大的类别,小样本就被认为是噪音,被忽略了

如何应对imbalanced datasets?

  1. 使用合适的衡量方式

    • F1
  2. 重新采样(resampling)

    • random under-sampling
      • 原有分布:负样本980,正样本20
      • under-sampling后:负样本98,正样本20
      • 优点:
        • 提升运算效率,减少运算时间
      • 缺点:
        • 有可能丢失重要的信息
        • 对总体的估计可能是有偏差的
    • random over-sampling
      • 原有分布:负样本980,正样本20
      • over-sampling后:负样本980,正样本500
      • 优点:
        • 保留了所有有用信息
      • 缺点:
        • 有可能overfiting,过拟合
    • 基于cluster 的重新采样(先用聚类方法找出子类)
      • 原有分布:负样本3类:每类数量 200,400,380,正样本两类:每类数量 13,7
      • 重新采样后:负样本3类:数量 300,300,300,正样本两类:每类数量 150,150
      • 优点:
        • 既解决不同类的样本不均等,又解决同类中子类间的样本不均等
      • 缺点:
        • 有可能过拟合
    • 合成数据 <span style="color:blue">SMOTE</span>
      • 原有分布:负样本980,正样本20
      • 合成数据后后:负样本980,正样本500 (非重复采样,而是生成正样本数据))
        <img src='./smote.png',width=500>
      • 优点:
        • 保留负样本所有信息
        • 减缓过拟合
      • 缺点:
        • SMOTE生成的数据可能引入更多的噪音
        • 对高维的数据效果不好
  3. 集成算法

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,242评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,769评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,484评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,133评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,007评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,080评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,496评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,190评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,464评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,549评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,330评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,205评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,567评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,889评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,160评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,475评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,650评论 2 335

推荐阅读更多精彩内容