Sklearn Metrics

分类中的评估标准

Shortcoming of Accuracy
  1. 类别不平衡问题时,评估不当。
  2. 当我们想在某一类的评估中增加犯错代价时,Accuracy不能很客观地做出评估。
Confusion Matrix

sklearn 中实际结果在y轴,预测结果在矩阵x轴

Precision

查准率 = TP/(TP+FP)

Recall

查全率= TP/(TP+FN)

F1_score

之所以称为 score,个人有两个原因:

  1. 因为其变化范围在0-1,1最好,0最差。在回归问题中有相应的R2_score
  2. score metric与error metric(包括mae和mse是两个对立面),socre越高,模型越好,而error越低效果越好。

F1可以理解为查准率和查全率的加权
f1 = 2 x Precision x Recall / ( Precision + Recall)

回归中的评估标准

MAE 均绝对值误差

为什么取绝对值?防止过高和过低的预测相互抵消。

MSE 均方误差

优点:

  1. 比起引起较小的误差训练样本,更强调引起较大误差的训练样本。
  2. 可以微分。可以用使用许多优化算法。
R2_score

回归预测得metrics有很多score,R2是sklearn中默认的score, which computes the coefficient of determination of predictions for true values. (暂时不理解)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容