《统计学习方法》第 6 章“逻辑回归”学习笔记

用于分类

逻辑回归是一个分类模型,“逻辑”是 Logistic 的音译。之所以叫回归,是因为它实际上预测的是概率,即拟合概率,只是“临门一脚”,选择概率最大的类作为预测的分类结果,逻辑回归本质上是一个回归问题。

逻辑回归解决分类问题,且只用于二分类,在本章节的最后,我们沿用二分类的思路可以解决多分类问题。

Logistic 回归是一种思想简单,且应用广泛的分类方法。相对于深度学习而言,深度学习等复杂的机器学习算法,对数据的要求很高,朴素简单的 Logistic 往往有时能达到很好的效果。

在线性回归中,我们找到一组参数 \theta ,使得 y = \theta \cdot x_b 去拟合数据点,这里的 y \in (-\infty,+\infty)

我们知道,(-\infty,+\infty) 有两个极端,对于二分类问题,就使用这两个极端来做分类,越极端越肯定,即越趋于无穷,概率值越趋近于 0 或 1,这里 y=0 就是这两类的分类边界。下面看一个例子。

对于一个二分类 {A, B} 问题,如果我们通过逻辑回归计算出来的参数 \theta,使得 y = \theta \cdot x_b 的值大于 0,则判定属于 A 类,如果计算出来 y 的值小于 0,则判定属于 B 类。如果 y 的值越大,则我们越肯定该预测点属于 A 类,如果 y 的值越小,则我们越肯定该预测点属于 B 类。

\theta \cdot x_b = 0 是一个超平面,在三维空间中,就是一个平面,在二维空间中,就是一条直线,根据点到超平面的距离公式:
\cfrac{\theta \cdot x_b}{||\theta||^2}\theta \cdot x_b 的绝对值越大,则表明预测点离这条直线越远,则我们越敢肯定,预测点属于其中一个类别。

  • \theta \cdot x_b 的符号,决定了预测点的类别,在逻辑回归中,我们定义类别为“1”和“0”。
    说明:我们完全可以将类别定义为“A”、“B”,或者 1、-1(在 SVM 算法中,就是这么定义的)。我们的定义总是为了我们后续优化计算方便,这一点可以在以后的学习中逐渐体会。
  • |\theta \cdot x_b| 的大小,决定了我们对预测点属于某一个类别的肯定程度。例如我们从小到大的百分制考试中,以 60 为分界线,离 60 越远的分数,例如 10 分或者 90 分,我们总是能肯定对这一部分知识的掌握越好或者越坏,可以选拔优秀或者淘汰不合格,越靠近 60 的分数,其实可上可下,我们不好做优劣判断,这与逻辑回归是一个道理。

将上面的思路,写成数学表达式就是,我们期望找到一个函数,将 y = \theta \cdot x_b 送入,得到一个概率,这个概率越趋近于 1 ,则表示判定属于其中一类的概率越大,这个概率越趋近于 0 ,则表示不属于这一类(即属于另一类)的概率越大。区分类别的概率边界值就是 0.5。

前辈们已经为我们找到了这个函数,命名为 sigmoid 函数,有的地方又称之为逻辑函数,它的数学表达式如下:

{\rm sigmoid}(t) = \frac{1}{1 + e^{-t}}

于是,我们得到的逻辑回归模型就是这样一个模型:
{\rm sigmoid}(x) = \cfrac{1}{1 + e^{-\theta \cdot x}}

以下对损失函数的推导中,我们总是定义,当 {\rm sigmoid}(x) >= 0.5 时,类别 y = 1,当 {\rm sigmoid}(x) < 0.5,类别 y = 0

广义线性回归

逻辑回归是广义的线性回归,预测房价是回归问题,但是否购买房子就是一个分类问题。因此逻辑回归可以看成“线性部分 + 非线性处理”,而“线性部分 + 非线性处理”也是深度学习的神经网络中神经元的表达形式。

我是这样理解广义线性回归的:

Sigmoid 函数可以用于概率计算:

y = \cfrac{1}{1+e^{-\vec w \cdot \vec x}}

e^{-\vec w \cdot \vec x} 写成 y 的函数,即

e^{-\vec w \cdot \vec x} = \cfrac{1-y}{y}

两边同时取对数,再乘以 -1,得

\vec w \cdot \vec x = \ln \cfrac{y}{1-y}

因此,对概率 y 做一个非线性变换 \ln \cfrac{y}{1-y} ,它就是自变量 \vec x 的线性函数,因此是一个回归问题。

逻辑回归的损失函数

损失函数具有这样的性质:它度量了预测值和真实值的差别,对于一个样本而言它是非负数,且当预测值与真实值越接近时,损失函数的值越小,当预测值与真实值差别越大时,损失函数的值应该越大。

我们需要一个函数,这个函数可以度量概率和损失的关系,负对数函数就是这样一个函数,把概率从 [0,1] 映射到损失 [0, +\infty]。因为负对数可以理解为先取倒数再取对数,取导数把 [0,1] 映射到 [1, +\infty],取对数把 [1, +\infty] 映射到 [0, +\infty],而在类标这里起到了指示的作用,因此我们一般设置类标为 01

而上面的描述其实就是交叉熵损失函数,交叉熵损失函数计算损失的特点是:损失只由类标的预测概率决定,如果类标所对应的预测概率越大,损失越小,如果类标所对应的预测概率越小,损失越大。

而交叉熵损失函数等价于极大似然估计,即交叉熵最小化等价于对数似然极大化。这是我看到的很多介绍逻辑回归的资料上面的两种对目标函数的定义,即:

1、目标函数如果是交叉熵:则最小化;
2、目标函数如果是对数似然,则极大化。

二者是等价的,它们的解析表示式也仅仅只相差一个负号。

交叉熵损失函数梯度公式的推导

二分类问题逻辑回归的损失函数的梯度函数公式的推导我写在这里了:二分类问题逻辑回归的损失函数的梯度函数。下面是手写笔记:

交叉熵损失函数梯度公式的推导

逻辑回归应用于多分类问题

一般地,二分类问题应用于多分类问题又两种思路:1、一对一;2、一对多。可以看一看 scikit-learn 文档对于“一对一”和“一对多”的描述。

1、一对一
https://scikit-learn.org/stable/modules/multiclass.html#ovo-classification
https://scikit-learn.org/stable/modules/generated/sklearn.multiclass.OneVsOneClassifier.html
2、一对多
https://scikit-learn.org/stable/modules/multiclass.html#ovr-classification
https://scikit-learn.org/stable/modules/generated/sklearn.multiclass.OneVsRestClassifier.html

中文:http://sklearn.apachecn.org/#/docs/13?id=_112-%E5%A4%9A%E7%B1%BB%E5%92%8C%E5%A4%9A%E6%A0%87%E7%AD%BE%E7%AE%97%E6%B3%95

而逻辑回归应用于多分类问题可以使用更精准的,我认为是特殊的“一对一”的方法:softmax 回归。

softmax 回归

在很多资料上我们会看到 softmax 回归,其实我觉得 softmax 回归和逻辑回归是一回事。逻辑回归的 sigmoid 函数把取值映射成概率,softmax 函数做的也是相同的事情。

softmax 函数把取值映射成概率的做法是先取指数函数,目的是把取值映射到 [0,+\infty],然后再归一化,因为如果不把取值映射成正数,归一化就无从下手,更不能解释概率是负数的问题了(虽然描述可能不太准确,但我想意思还是能表达清楚)。

在深度学习中,如果是二分类问题,输出层使用的激活函数是 sigmoid,而多分类问题,输出层使用的激活函数是 softmax。

scikit-learn 的逻辑回归

1、scikit-learn 的逻辑回归加上了正则化项,正则化的强度可以由使用者来指定。

参数 C 是一个浮点数,默认的值是 1.0。这个 C 是正则化强度的倒数,如果 C 越小,正则化强度越大。

2、对于多分类问题,不同的多分类的方法对应了可以使用的不同的训练方法,这一点需要参考文档。

最大熵模型

逻辑回归其实是最大熵模型的特例,我另外写了学习笔记。

(本文完)

参考资料

[1] 李航. 统计学习方法(第 2 版)第 6 章“逻辑回归”. 北京:清华大学出版社,2019.

[2] 周志华. 机器学习(第 3 章第 3 节“对数几率回归”). 北京:清华大学出版社.


以下为草稿,我自己留着备用,读者可以忽略,欢迎大家批评指正。

参考资料

1、scikit-learn 官方文档:
英文:https://scikit-learn.org/stable/modules/linear_model.html#logistic-regression
中文:http://sklearn.apachecn.org/#/docs/2?id=_1111-logistic-回归

2、刘建平的文章:
(1)逻辑回归原理小结
地址:https://www.cnblogs.com/pinard/p/6029432.html
(2)scikit-learn 逻辑回归类库使用小结
地址:https://www.cnblogs.com/pinard/p/6035872.html

3、Aurélien,Géron 著:《Sklearn 与 TensorFlow 机器学习实用指南》

官方 GitHub 代码仓库:https://github.com/ageron/handson-ml/blob/master/04_training_linear_models.ipynb

在 nbviewer 上查看:https://nbviewer.jupyter.org/github/ageron/handson-ml/blob/master/04_training_linear_models.ipynb

4、开源组织 ApacheCN 也对这本书做了翻译:ApacheCN
地址:https://www.bookstack.cn/read/hands_on_Ml_with_Sklearn_and_TF/spilt.6.docs-4.%E8%AE%AD%E7%BB%83%E6%A8%A1%E5%9E%8B.md

5、GLM(广义线性模型) 与 LR(逻辑回归) 详解

https://blog.csdn.net/Cdd2xd/article/details/75635688

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,189评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,577评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,857评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,703评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,705评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,620评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,995评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,656评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,898评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,639评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,720评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,395评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,982评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,953评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,195评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,907评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,472评论 2 342

推荐阅读更多精彩内容