Logistic Regression,Softmax以及Cross Entropy

I. Logistic Regression(LR)

1. 从线性回归说起

线性回归(Linear Regression)是一个回归模型,用线性关系来拟合输出y和输入x之间的关系:
f(\boldsymbol x) = w_1x_1 + w_2x_2 + ... + w_nx_n + b \tag1
或者可以简写
f(\boldsymbol x) = \boldsymbol {w^Tx} +b \tag2
\boldsymbol {x} \in \mathbb{R^n}, \boldsymbol {w} \in \mathbb{R^n}, b \in \mathbb{R}.但线性回归只能解决连续值的回归问题。如果延伸到分类问题,自然的想法是找一个连续可微函数g(\cdot)将式(2)的输出值f(\boldsymbol x)映射到一个概率范围[0,1]内。如果选择sigmoid函数,就成为了我们要讨论的logistic regression模型。sigmoid函数如式(3)所示
y = \frac{1}{1+e^{-z}} \tag3

2. Logistic Regression

Logistic Regression是一个二分类模型,定义为如下的条件概率函数
P(Y=1|x) = \frac {e^{\boldsymbol {w^Tx}+b}}{1+e^{\boldsymbol {w^Tx}+b}} \tag4
P(Y=0|x) = \frac {1} {1+e^{\boldsymbol {w^Tx}+b}} \tag5
\boldsymbol {x} \in \mathbb{R^n}, \boldsymbol {w} \in \mathbb{R^n}, b \in \mathbb{R}. 模型会比较式(4) (5)的大小,并将较大的概率值对应的标签作为预测结果。

这里要引入一个几率(odds)的概念。一个事件的几率是指该事件发生与不发生的概率之比,即\frac p {1-p}.对几率取对数则是对数几率(log odds,又称logits).根据式(4)和(5),Logistic Regression的logits为
log(\frac p {1-p}) = \boldsymbol {w^Tx}+b \tag6
这里就可以看出,LR模型实质上是用线性函数来拟合事件的对数几率,因此LR又被称为对数几率模型。由于LR是一个概率模型,因此可以使用极大似然法来求解参数\boldsymbol wb,网上有很多推导,这里不做展开。

II. Softmax函数

1. 定义

LR是一个二分类模型。想做多分类的话,就轮到softmax登场了。softmax函数定义如下:
Y_i = \frac {e^{\boldsymbol {w_i^Tx_i}}}{\sum_{k=1}^K e^\boldsymbol {{w_k^Tx_k}}}\tag7
\boldsymbol {x_i} \in \mathbb{R^n}, \boldsymbol {w_i} \in \mathbb{R^n}, i \in \{1, 2, ..., K\} , Y_i \in (0, 1).Softmax函数的取值为(0, 1),经常用于神经网络最后一层的激活函数。这K个输出可以看做是对K个类别的预测概率,softmax输出值最大的那个就作为预测的标签。

2. Softmax与LR的关系

事实上,LR是softmax的类别数K=2时的特殊形式,推导如下:
K=2时,softmax可以写作
Y_i = \frac {e^{\boldsymbol {w_i^Tx_i}}}{e^{\boldsymbol {w_1^Tx_1}}+e^{\boldsymbol {w_2^Tx_2}}}, i=1,2 \tag8
将分子分母的系数w都减去w_i^T,可得
Y_1 = \frac {e^{\boldsymbol {0x_i}}}{e^{\boldsymbol {0x_1}}+e^{\boldsymbol {(w_2^T-w_1^T)x_2}}} = \frac {1}{1+e^{\boldsymbol {(w_2^T-w_1^T)x_2}}}\tag9
Y_2 = 1-Y_1 = \frac {e^{\boldsymbol {(w_2^T-w_1^T)x_2}}}{1+e^{\boldsymbol {(w_2^T-w_1^T)x_2}}}\tag{10}
\boldsymbol {w_2^T-w_1^T}=\boldsymbol {w^T},则Y_1Y_2就是logistic regression中的P(Y=0|x)P(Y=1|x).

3. Softmax的导数

Softmax经常作为神经网络的输出,其导数为:

\frac{\partial Y_i}{\partial \boldsymbol{x_j}}=\left\{\begin{aligned}-Y_iY_j, & i \neq j \\Y_i(1-Y_j), & i = j\end{aligned}\right.\tag{11}

III. Cross Entropy

Cross entropy (交叉熵)原本是信息论中的概念,描述的是两个概率分布间的距离,定义如下
H(p, q) = -\sum_xp(x){\rm log}q(x) \tag{12}
在分类任务中,我们经常看到Cross Entropy作为LR和softmax函数的损失函数。这里p(x)为真实值,q(x)为预测值,交叉熵可以刻画预测值和真实值之间的差异,这也是其可以作为概率模型loss函数的原因。而前文所介绍的LR和softmax输出的结果正是这样的概率形式。

当Cross entropy作为LR的损失函数时,式(12)中的x即为sigmoid的输出Y,因此
H(p, q) = Y \cdot {\rm log}P(Y=1) + (1-Y) \cdot {\rm log}P(Y=0) \tag{13}
对于所有m个样本取平均可得
\frac{1}{m} \sum_{n=1}^{m} H_n(p, q) = Y_n \cdot {\rm log}P(Y_n=1) + (1-Y_n) \cdot {\rm log}P(Y_n=0) \tag{14}
可以证明,cross entropy与使用极大似然法计算出的loss一致。

当Cross entropy作为softmax的损失函数时,式(12)变为
H(p, q) = -\sum_{i=1}^{K}O_i{\rm log}Y_i = {\rm log}Y_t = {\rm log} \frac {e^{\boldsymbol {w_t^Tx_t}}}{\sum_{k=1}^K e^\boldsymbol {{w_k^Tx_k}}} \tag{15}
其中t为真实label,t \in \{1,2,...,K\}.这里使用gradient descent来优化loss函数,式(15)对特定输入x_j的导数为
\frac {\partial H(p, q)} {\partial x_j } = -\frac {\partial \sum_{i=1}^{K}O_i{\rm log}Y_i }{\partial x_j} = - \sum_{i=1}^{K}O_i \frac {\partial {\rm log}Y_i }{Y_i}\frac{\partial Y_i }{\partial x_j} = - \sum_{i=1}^{K}O_i\frac{1}{Y_i} \frac{\partial Y_i }{\partial x_j} \tag{16}
将前面式(11)softmax的导数代入得
\frac{\partial H(p, q)} {\partial x_j }=-(\frac{O_j}{Y_j}\cdot\frac{\partial Y_j}{\partial x_j} + \sum_{i\neq j}\frac{O_i}{Y_i}\cdot\frac{\partial Y_i} {\partial x_j} ) =O_j(Y_j-1)+Y_j\sum_{i\neq j} O_i = \left\{\begin{aligned}Y_j-1, & O_j=1 \\Y_j, & O_j=0\end{aligned}\right. = Y_j-O_j \tag{17}
可以看出,softmax函数的cross entropy loss求导结果正好是预测值Y_j和真实labelO_j之差。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,992评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,212评论 3 388
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,535评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,197评论 1 287
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,310评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,383评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,409评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,191评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,621评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,910评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,084评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,763评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,403评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,083评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,318评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,946评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,967评论 2 351

推荐阅读更多精彩内容