Python sklearn模板实现Logistic回归算法

在掌握 Logistic 回归的基本原理之后,下面我们通过实战来感受一下这个模型。由于模型的求解过程(如梯度下降法、牛顿法)和正则化流程都被封装在机器学习框架(如 sklearn)之中,所以我们无须为这些底层优化算法费心,这就是利用框架的便利所在。

前面关于 Logistic 回归的理论推导,主要是基于二分类的。下面我们就使用 sklearn 进行二分类的实战。实战使用的数据集是皮马印第安人糖尿病数据集(Pima Indians Diabetes Data Set),

该数据集中包括 442 个患者的生理数据及一年以后的病情发展情况数据。数据集中的特征包括: Pregnancies(怀孕次数)、Glucose(葡萄糖,单位mmol/L)、BloodPressure(血压,单位 mm Hg)、SkinThickness(皮层厚度,单位 mm)、Insulin(胰岛素,餐后2小时血清胰岛素,单位 mu U / ml)、BMI(体重指数,计算公式为(体重/身高)2)、Diabetes Pedigree Function(糖尿病谱系功能)、Age(年龄)。

我们的要预测的目标是,一年后该患者还有没有糖尿病,有(标识为 1)或者没有(标识为 0)显然是一个分类问题。由于用于训练的数据集略有不同,所以我们并不能直接使用 sklearn 提供的内置数据集。比较便捷的方法是,在 Kaggle(一个数据竞赛网站)上下载预处理好的数据集。为了演示方便,我们还是用 Jupyter 来分开解读例 1 的运行流程。

【例 1】Logistic 回归实战(LogisticRegression.py)

1) 导入数据集

首先我们要获取数据,即导入数据集,方法如下。

<pre class="python sh_python snippet-formatted sh_sourceCode" style="margin: 0px; display: block; padding: 0px; font-size: 14px; line-height: 1.6em; color: rgb(102, 102, 102); white-space: pre-wrap; overflow-wrap: break-word; background: none; border: none; border-radius: 0px;">

  1. 导入Pandas

  2. import pandas as pd
  3. 构建属性名称列表

  4. col_names = ['pregnant', 'glucose'; 'bp', 'skin', 'insulin', 'bmi', 'pedigree', 'age', 'label']
  5. 导入数据集

  6. pima = pd.read_csv("diabetes.csv", header=None, names=col_names)

</pre>

如果我们想对数据集有一个直观的认识,不妨使用 head( ) 显示前 5 行(非必需步骤)。

<pre class="python sh_python snippet-formatted sh_sourceCode" style="margin: 0px; display: block; padding: 0px; font-size: 14px; line-height: 1.6em; color: rgb(102, 102, 102); white-space: pre-wrap; overflow-wrap: break-word; background: none; border: none; border-radius: 0px;">

  1. pima.head()

</pre>

显示结果如下:

显示结果

2) 选择特征和目标

由于前 8 个特征(即 data 部分)和第 9 个标签(即 target 部分)同处一个数据集,而 sklearn 需要将它们分开处理,所以下面的工作就是将这二者分割开。在 Pandas 的帮助下,这也是很容易做到的。

https://docs.qq.com/pdf/DR1doYmNBYUZ3RVNX

<pre class="python sh_python snippet-formatted sh_sourceCode" style="margin: 0px; display: block; padding: 0px; font-size: 14px; line-height: 1.6em; color: rgb(102, 102, 102); white-space: pre-wrap; overflow-wrap: break-word; background: none; border: none; border-radius: 0px;">

  1. 分割特征和标签

  2. feature_cols = ['pregnant', 'insulin', 'bmi', 'age', 'glucose', 'bp', 'pedigree']
  3. X = pima[feature_cols] #提取特征
  4. y = pima.label #提取标签

</pre>

3) 拆分训练集合和测试集合

下面我们使用 sklearn 中的 train_test_split( ) 函数把数据集一分为二,一部分为测试集,剩余部分为训练集。默认分割比例为一比三,其中 25% 为测试集,75% 为训练集,即 test_size=0.25(这个参数是默认值,如果不需要修改,则可不提供此参数)。

如果设置为其他比例,如 20%,可显式在该函数中设置参数 test_size=0.2。

<pre class="python sh_python snippet-formatted sh_sourceCode" style="margin: 0px; display: block; padding: 0px; font-size: 14px; line-height: 1.6em; color: rgb(102, 102, 102); white-space: pre-wrap; overflow-wrap: break-word; background: none; border: none; border-radius: 0px;">

  1. from sklearn.model_selection import train_test_split
  2. X_train, X_test, y_train, y_test=train_test_split(X, y, test_size=0.2, random_state=0)

</pre>

4) 模型选择和训练

诸如 Logistic 回归这类经典算法,sklearn 已经帮我们设计好了,一般情况下可拿来即用。

<pre class="python sh_python snippet-formatted sh_sourceCode" style="margin: 0px; display: block; padding: 0px; font-size: 14px; line-height: 1.6em; color: rgb(102, 102, 102); white-space: pre-wrap; overflow-wrap: break-word; background: none; border: none; border-radius: 0px;">

  1. 导入Logistic回归模型

  2. from sklearn.linear_model import LogisticRegression
  3. 创建模型实例

  4. logreg = LogisticRegression(solver= 'newton-cg')
  5. 用数据拟合模型,即训练

  6. logreg.fit(X_train, y_train)
  7. 模型预测

  8. y_pred=logreg.predict(X_test)

</pre>

这里需要说明的是第 17 行。Logistic 回归对应的目标函数(损失函数)是凸函数,也就是说理论上是有最优解的。这好比,我们攀登一座山峰,峰顶是我们的目标(最优解),但登上峰顶却不止一条道路。快速登上峰顶的方法,就对应机器学习的“优化算法”。

对于如何获得 Logistic 回归的最优解,也是有不同方法的,在 LogisticRegression( ) 函数参数中,对应的 solver(解决方案)共有四个:newton-cg、lbfgs、liblinear、sag。

不同方案适用范围不一样,效率和准确度都有差别,下面简单介绍:

  • liblinear:使用开源的liblinear库(一种经典的线性分类器)实现,适用于小数据集。
  • lbfgs:采用拟准牛顿法(quasi-Newton method)实现,利用损失函数二阶导数矩阵,即海森(Hessian)矩阵来迭代优化损失函数。
  • newton-cg:牛顿迭代法家族中一个变种,采用非线性共轭梯度(conjugate gradient)算法实现,它需要通过事先预处理让各个特征处于同一个尺度之下。
  • sag:随机平均梯度下降法(stochastic average gradient),属于梯度下降法的变种,和普通梯度下降法的区别是,每次迭代仅用一部分样本来计算梯度,适合用于样本数据多的场景。

5) 评估模型

对于二分类算法,我们可以很容易地用混淆矩阵来评估算法的性能。其中正对角线(TP+TN)是分类正确的样本数。

<pre class="python sh_python snippet-formatted sh_sourceCode" style="margin: 0px; display: block; padding: 0px; font-size: 14px; line-height: 1.6em; color: rgb(102, 102, 102); white-space: pre-wrap; overflow-wrap: break-word; background: none; border: none; border-radius: 0px;">

  1. import the metrics class

  2. from sklearn import metrics
  3. cnf_matrix = metrics.confusion_mat:rix(y_test, y_pred)
  4. print(cnf_matrix)

</pre>

程序执行结果为:

[[98 9]
[18 29]

从运行结果可以看出,共 127 个样本(98+29)被正确分类。

当然,我们也可以使用传统的性能指标(如准确率、查准率和查全率)来衡量分类结果。

<pre class="python sh_python snippet-formatted sh_sourceCode" style="margin: 0px; display: block; padding: 0px; font-size: 14px; line-height: 1.6em; color: rgb(102, 102, 102); white-space: pre-wrap; overflow-wrap: break-word; background: none; border: none; border-radius: 0px;">

  1. print ("准确率:{: . 2f}".format(metries.accuracy_score (y_test, y_pred)))
  2. print ("查准率:{: . 2f}".format(metrics.precision_score (y_test, y_pred)))
  3. print ("查全率:{: . 2f}".format(metries.recall_score (y_test, y_pred)))

</pre>

程序执行结果为:

准确率:0.82
查准率:0.76
查全率:0.62

6) ROC曲线

通过之前的讨论得知,相比于准确率、查准率和查全率而言,ROC曲线有很多优点,经常作为二值分类器性能评估的重要指标之一。AUC 就是 ROC 曲线下的面积总和,该值能够量化反映模型的性能。这两个指标在 sklearn 中也很容易实现。

https://docs.qq.com/pdf/DR1doYmNBYUZ3RVNX

<pre class="python sh_python snippet-formatted sh_sourceCode" style="margin: 0px; display: block; padding: 0px; font-size: 14px; line-height: 1.6em; color: rgb(102, 102, 102); white-space: pre-wrap; overflow-wrap: break-word; background: none; border: none; border-radius: 0px;">

  1. import matplotlib.pyplot as plt
  2. 为在 Matplotlib 中显示中文,设置特殊字体

  3. plt.reParams['font.sans-serif'] = ['SimHei']
  4. fig = plt.figure(figsize=(9, 6), dpi=100)
  5. ax = fig.add_subplot(111)
  6. y_pred_proba = logreg.predict_proba(X_test) [::, 1]
  7. fpr, tpr, _ = metrics.roc_curve(y_test, y_pred_proba)
  8. auc = metrics.roc_auc_score(y_test, y_pred_proba)
  9. plt.plot(fpr, tpr, label="pima糖尿病, AUC={: . 2f}" .format (auc))
  10. plt.legend(shadow=True, fontsize=13, loc = 4)
  11. plt.show()

</pre>

程序执行结果为:

ROC曲线和AUC

图 1:ROC曲线和AUC

从运行结果可以看出,AUC=0.87,这个分类性能还可以接受。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,133评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,682评论 3 390
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,784评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,508评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,603评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,607评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,604评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,359评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,805评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,121评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,280评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,959评论 5 339
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,588评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,206评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,442评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,193评论 2 367
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,144评论 2 352

推荐阅读更多精彩内容