I. Logistic Regression(LR)
1. 从线性回归说起
线性回归(Linear Regression)是一个回归模型,用线性关系来拟合输出和输入之间的关系:
或者可以简写
但线性回归只能解决连续值的回归问题。如果延伸到分类问题,自然的想法是找一个连续可微函数将式(2)的输出值映射到一个概率范围[0,1]内。如果选择sigmoid函数,就成为了我们要讨论的logistic regression模型。sigmoid函数如式(3)所示
2. Logistic Regression
Logistic Regression是一个二分类模型,定义为如下的条件概率函数
模型会比较式(4) (5)的大小,并将较大的概率值对应的标签作为预测结果。
这里要引入一个几率(odds)的概念。一个事件的几率是指该事件发生与不发生的概率之比,即.对几率取对数则是对数几率(log odds,又称logits).根据式(4)和(5),Logistic Regression的logits为
这里就可以看出,LR模型实质上是用线性函数来拟合事件的对数几率,因此LR又被称为对数几率模型。由于LR是一个概率模型,因此可以使用极大似然法来求解参数和,网上有很多推导,这里不做展开。
II. Softmax函数
1. 定义
LR是一个二分类模型。想做多分类的话,就轮到softmax登场了。softmax函数定义如下:
Softmax函数的取值为(0, 1),经常用于神经网络最后一层的激活函数。这个输出可以看做是对K个类别的预测概率,softmax输出值最大的那个就作为预测的标签。
2. Softmax与LR的关系
事实上,LR是softmax的类别数时的特殊形式,推导如下:
当时,softmax可以写作
将分子分母的系数都减去,可得
令,则和就是logistic regression中的和.
3. Softmax的导数
Softmax经常作为神经网络的输出,其导数为:
III. Cross Entropy
Cross entropy (交叉熵)原本是信息论中的概念,描述的是两个概率分布间的距离,定义如下
在分类任务中,我们经常看到Cross Entropy作为LR和softmax函数的损失函数。这里为真实值,为预测值,交叉熵可以刻画预测值和真实值之间的差异,这也是其可以作为概率模型loss函数的原因。而前文所介绍的LR和softmax输出的结果正是这样的概率形式。
当Cross entropy作为LR的损失函数时,式(12)中的即为sigmoid的输出Y,因此
对于所有m个样本取平均可得
可以证明,cross entropy与使用极大似然法计算出的loss一致。
当Cross entropy作为softmax的损失函数时,式(12)变为
其中为真实label,这里使用gradient descent来优化loss函数,式(15)对特定输入的导数为
将前面式(11)softmax的导数代入得
可以看出,softmax函数的cross entropy loss求导结果正好是预测值和真实label之差。