[机器学习] 分类(Classification)——贝叶斯分类 (Bayes Classification) 和逻辑回归 (Logistic Regression)

Classification

Probabilistic Generative Model

  在概率论中,我们学习过贝叶斯公式,他是说当一件事情 A 发生了,这件事可能有 n 个原因 B_1,\ ...\ ,B_n ,那么在 A 发生的条件下,事情是由 B_i 引起的概率记为 p(B_i|A) ,这个概率等于在 B_i 发生的概率乘以 B_i 的条件下 A 发生的概率除以 A 发生的概率。即:
p(B_i|A)=\frac {p(A|B_i) p(B_i)} {p(A)}
  其中, A 发生的概率又等于各个原因的造成 A 发生的概率的和,即 p(A) = \sum_{j=1}^np(A|B_j)p(B_j) 。所以贝叶斯公式的公式是:
p(B_i|A)=\frac {p(A|B_i)p(B_i)} {\sum_{j=1}^np(A|B_j)p(B_j)}
  回到我们的分类任务,假设我们只需将数据分为两类,即 n=2 ,而分类任务就是给了你一组特征值向量 \boldsymbol x ,你需要给出他是属于第一类 C_1 还是第二类 C_2 的,那么按照概率的思想,我们就可以去求这个向量是 C_1 的概率和是 C_2 的概率。哪个概率大我们就认为他是哪类的。也就是去求 p(C_1|\boldsymbol x)p(C_2|\boldsymbol x) ,他两的和是为 1 的,所以只需要求一个 p(C_1|\boldsymbol x) ,若大于 0.5 就分类为 C_1 ,否则就分类为 C_2 。根据贝叶斯公式:
p(C_1|\boldsymbol x) = \frac {p(\boldsymbol x|C_1)p(C_1) } {p(\boldsymbol x|C_1)p(C_1)+p(\boldsymbol x|C_2)p(C_2)}
  所以在这个二分类问题中,我们的目标就是去求解 p(\boldsymbol x|C_1)、p(C_1)、p(\boldsymbol x|C_2)、p(C_2) 这四个概率。这四个参数是用训练集的参数求出的。首先来看怎么求 p(C_1)、p(C_2) ,这两个其实就是 C_1、C_2 在实际中发生的概率,但是我们没法知道全体样本中这两类的概率分别是多少,我们只能根据数据集来估测这两个概率。假设我们的数据集有 m 个样本,其中 k 个是 C_1 ,其余 m-kC_2 ,那么我们能够得到这个样本集的概率就是:

\begin{aligned} p &= p(C_1)^kp(C_2)^{m-k} \\ &=p(C_1)^k(1-p(C_1))^{m-k} \end{aligned}
  按照极大似然估计的思想,这件事发生的概率最大时,即 p 最大时,p(C_1) 的值就最可能是全体样本中 C_1 发生的概率。对两边取自然对数再求导:
\begin{aligned} \frac {\partial\ln {p}} {\partial p(C_1)} &= \frac {\partial[k\ln {p(C_1)} + (m-k)\ln {(1-p(C_1))}]} {\partial p(C_1)} \\ &=\frac k {p(C_1)} - \frac {m-k} {1-p(C_1)} \end{aligned}
  因为对 p 取自然对数不会改变 p 的单调性,所以 \ln p 取最值点时的 p(C_1) 也就是 p 求最值时的点。所以上式等于 0 时为极值点,求解得:
\begin{aligned} \frac k {p(C_1)} &= \frac {m-k} {1-p(C_1)} \\ k-kp(C_1)&=(m-k)p(C_1) \\ p(C_1) &= \frac {k} {m} \end{aligned}
  上面这个是当分类类别只有两个的时候的结果,其实当有多个类别的结果也是一样的,也就是 p(C_i) 的极大似然估计是样本集中,属于 C_i 的样本的个数 m_i 除以样本集的总个数 m
p(C_i) = \frac {m_i} m
  上面对分类结果的分布其实是假设其服从的伯努利分布来计算的。因为类别的结果只可能是给定的几个类,比如记为 1、2、...、n 而不可能是其他取值,比如说 1.5 等等,所以这个假设是合理的。至此,我们解决了前面所要计算的 p(C_1)、p(C_2) 的值,接下来我们来解决 p(\boldsymbol x|C_1)、p(\boldsymbol x|C_2) ,以 p(\boldsymbol x|C_1) 为例,这个是说,在类别标签为 C_1 的样本中,他的特征参数的形式为 \boldsymbol x 的概率。基于不同的模型我们计算出的概率的方式和结果是不同的。比如说 \boldsymbol x 的取值也是离散分布的,比如在一个水果类别分类任务中,我们的特征属性可能是水果的颜色、形状,颜色的取值假设只有红色、黄色、绿色、蓝色这四种,形状只有圆形、方形、弯月型这几种。那么用伯努利分布去估测 p(\boldsymbol x|C_1)、p(\boldsymbol x|C_2) 是合理的。估测的方法也和上面一样,就是样本集会缩小,比如在估测 p(\boldsymbol x|C_1) 的时候,只取样本集中类别为 C_1 的样本,然后再在这个条件下的样本子集中取计算 p(\boldsymbol x) 。但是当样本属性为长度、温度等连续值属性时,再使用伯努利分布就不合理了,因为样本集中不可能将所有的结果都取到,因为连续值有无穷种可能,那么在预测的时候,再用伯努利分布来计算 p(\boldsymbol x|C_1) 的话,几乎都是 0 的,因为基本不可能取到和样本集中一模一样的参数,那就没法来预测了。这个时候,我们可以用高斯分布来估测 p(\boldsymbol x|C_1)

Gaussian Distribution

  我们假定属于某一类的数据集中各个属性的取值是服从高斯分布的,一个高斯分布是由均值 \boldsymbol \mu 和协方差 \boldsymbol \Sigma 决定的,他的公式为,其中 D\boldsymbol x 的维数:
f_{\boldsymbol \mu,\boldsymbol \Sigma}(\boldsymbol x)=\frac {1} {(2 \pi)^{D/2}} \frac {1} {| \Sigma |^{1/2}} \exp \{ -\frac 1 2 (\boldsymbol x- \boldsymbol \mu)^T {\boldsymbol \Sigma}^{-1} (\boldsymbol x- \boldsymbol \mu) \}
  那么我们所做的就是用某一类的样本数据去找到这个类的分布函数,即找到对应的 \boldsymbol \mu\boldsymbol \Sigma 。继续上面的例子,我们要找的分别是 C_1C_2 的高斯分布函数 f_{\boldsymbol \mu_1,\boldsymbol \Sigma_1}(\boldsymbol x)f_{\boldsymbol \mu_2,\boldsymbol \Sigma_2}(\boldsymbol x) ,就是要去算 \boldsymbol \mu_1,\boldsymbol \Sigma_1,\boldsymbol \mu_2,\boldsymbol \Sigma_2 。以 C_1 为例,依旧采用极大似然估计的思想来估计 \boldsymbol \mu_1,\boldsymbol \Sigma_1 这两个参数。假设数据集里类别为 C_1 的数据为 \boldsymbol x_{11},\boldsymbol x_{12},...,\boldsymbol x_{1k}k 个,假设每个样本之间是相互独立的,则这 k 个样本被采集到的概率为各自被采集到的概率的乘积:
p=\prod_{i=1}^kf_{\boldsymbol \mu_1,\boldsymbol \Sigma_1}(\boldsymbol x_{1i})
  求解的结果是,p 最大时:
\boldsymbol \mu_1 = \frac 1 k \sum_{i=1}^k {\boldsymbol x}_{1i} \\ \boldsymbol \Sigma_1=\frac 1 k \sum_{i=1}^k({\boldsymbol x}_{1i}-\boldsymbol \mu_1)({\boldsymbol x}_{1i}-\boldsymbol \mu_1)^T
  由此,我们就能够得到 f_{\boldsymbol \mu_1,\boldsymbol \Sigma_1}(\boldsymbol x) 这个 C_1 的高斯分布,因此当给定一个新的 \boldsymbol x 时,我们就能代入到 f_{\boldsymbol \mu_1,\boldsymbol \Sigma_1}(\boldsymbol x) 就能求得 p(\boldsymbol x|C_1)C_2 同理。至此,我们的贝叶斯公式的所有的值都知道了,我们就可以分别求得一个属性取值为 \boldsymbol x 的样本分别属于每个类的概率是多少,取其中最大的概率的结果所对应的类为我们的分类结果就完成了分类任务。

\Sigma 假设

  上面的高斯分布模型中,我们为不同类别的数据分别训练了不同的高斯分布,我们还可以假设他们的 \boldsymbol \Sigma 是相同的,即分布的形状是相同的,只是均值不同,即中心点不同。这样可以减少参数的个数,在一些情况下分类的表现也可能比分开好。在同 \boldsymbol \Sigma 假设下,依旧采用极大似然估计来估计模型的参数。还是假设属于类别 C_1 的参数有 k 个,属于 C_2 的有 m-k 个。则这个样本被采集到的概率为:
p = \prod_{i=1}^kf_{\boldsymbol \mu_1,\boldsymbol \Sigma}(\boldsymbol x_{1i}) \prod_{j=1}^{m-k}f_{\boldsymbol \mu_1,\boldsymbol \Sigma}(\boldsymbol x_{2j})
  p 取最大值时,\boldsymbol \mu_1,\boldsymbol \mu_2,\boldsymbol \Sigma 的推导过程不在这里推导了,其结果是,均值和原来一样,协方差变为:
\boldsymbol \Sigma = \frac m k\boldsymbol \Sigma_1 + \frac {m-k} m \boldsymbol \Sigma_2
  按照这个假设得到的分类边界是一个线性的边界。

Naive Bayes Model

  在概率论中,我们学过,当各个事件之间相互独立的时候,他们同时发送的概率等于各自发生的概率的乘积,即:
p(A=a,B=b,C=c) = p(A=a)p(B=b)p(C=c)
  而在贝叶斯分类公式中,上面所讨论的是各个属性之间是有关联的条件下的结果,那么当假设其无关联的时候,贝叶斯分类就变成了朴素贝叶斯分类,假设 \boldsymbol x 是一个 n 维向量,则:(PS:这里的写法可能会和上面的写法冲突引起误解。上面的 \boldsymbol x_{1i} 的下标表示的是属于第 1 的第 i 个样本的取值向量,比如有 n 个向量就是 n 维的,而下面的下标表示 \boldsymbol x 这个 n 维向量的第 i 维度上的取值)
p(\boldsymbol x) =p(x_1)p(x_2)p(x_3)\cdots p(x_n)
  在朴素贝叶斯下,上面的 n 为的高斯分布也就变成了 n 个一维高斯分布的乘积了。

Posterior Probability

  下面来解释为什么同 \boldsymbol \Sigma 下,分类边界会是线性的。首先让我们对贝叶斯公式进行一下变换:
\begin{aligned} p(C_1|\boldsymbol x) &= \frac {p(\boldsymbol x|C_1)p(C_1) } {p(\boldsymbol x|C_1)p(C_1)+p(\boldsymbol x|C_2)p(C_2)} \\ & = \frac 1 {1+ \frac{ p(\boldsymbol x|C_2)p(C_2)}{p(\boldsymbol x|C_1)p(C_1)}} \end{aligned}
  令 z=\ln\frac{ p(\boldsymbol x|C_1)p(C_1)}{p(\boldsymbol x|C_2)p(C_2)} ,则有:
\begin{aligned} p(C_1|\boldsymbol x) &= \frac 1 {1+ \exp(-z)} \\ & = \sigma(z) \end{aligned}
  其中 \sigma(z) 是 sigmoid function 。我们来看 z 这一项。变换一下可得:
\begin{aligned} z&=\ln\frac{ p(\boldsymbol x|C_1)p(C_1)}{p(\boldsymbol x|C_2)p(C_2)} \\ &=\ln \frac{ p(\boldsymbol x|C_1)} { p(\boldsymbol x|C_2)}+\ln \frac {p(C_1)}{p(C_2)} \\ &=\ln \frac{ p(\boldsymbol x|C_1)} { p(\boldsymbol x|C_2)}+\ln \frac{k}{m-k} \end{aligned}
  其中,后面那一项是一个常数,接下来看前面这一项,我们将高斯分布代进去:
\begin{aligned} \ln \frac{ p(\boldsymbol x|C_1)} { p(\boldsymbol x|C_2)}&= \ln \frac {\frac 1 {(2 \pi)^{D/2}} \frac {1} {| \Sigma |^{1/2}} \exp \{ -\frac {1} {2} (\boldsymbol x- \boldsymbol \mu_1)^T {\boldsymbol \Sigma}^{-1} (\boldsymbol x- \boldsymbol \mu_1) \}} {\frac 1 {(2 \pi)^{D/2}} \frac {1} {| \Sigma |^{1/2}} \exp \{ -\frac 1 2 (\boldsymbol x- \boldsymbol \mu_2)^T {\boldsymbol \Sigma}^{-1} (\boldsymbol x- \boldsymbol \mu_2) \}} \\ &=-\frac 1 2 [(\boldsymbol x- \boldsymbol \mu_1)^T {\boldsymbol \Sigma}^{-1} (\boldsymbol x- \boldsymbol \mu_1)-(\boldsymbol x- \boldsymbol \mu_2)^T {\boldsymbol \Sigma}^{-1} (\boldsymbol x- \boldsymbol \mu_2)] \\ &=-\frac 1 2 [\boldsymbol x^T {\boldsymbol \Sigma}^{-1} \boldsymbol x - \boldsymbol \mu_1^T {\boldsymbol \Sigma}^{-1} \boldsymbol x -\boldsymbol x^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_1 + \boldsymbol \mu_1^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_1 - \\ & \ \ \ \ \ \ \boldsymbol x^T {\boldsymbol \Sigma}^{-1} \boldsymbol x + \boldsymbol \mu_2^T {\boldsymbol \Sigma}^{-1} \boldsymbol x +\boldsymbol x^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_2 - \boldsymbol \mu_2^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_2 ] \end{aligned}
  其中 \boldsymbol \mu_1^T {\boldsymbol \Sigma}^{-1} \boldsymbol x =\boldsymbol x^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_1\boldsymbol \mu_2^T {\boldsymbol \Sigma}^{-1} \boldsymbol x =\boldsymbol x^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_2 ,所以有:
\begin{aligned} \ln \frac{ p(\boldsymbol x|C_1)} { p(\boldsymbol x|C_2)} &=-\frac 1 2 [ - 2\boldsymbol \mu_1^T {\boldsymbol \Sigma}^{-1} \boldsymbol x + \boldsymbol \mu_1^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_1 + 2\boldsymbol \mu_2^T {\boldsymbol \Sigma}^{-1} \boldsymbol x - \boldsymbol \mu_2^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_2 ] \\ &=(\boldsymbol \mu_1-\boldsymbol \mu_2)^T {\boldsymbol \Sigma}^{-1} \boldsymbol x -\frac 1 2[\boldsymbol \mu_1^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_1-\boldsymbol \mu_2^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_2 ] \end{aligned}
  将上式代回去:
\begin{aligned} z&=\ln \frac{ p(\boldsymbol x|C_1)} { p(\boldsymbol x|C_2)}+\ln \frac{k}{m-k} \\ &=(\boldsymbol \mu_1-\boldsymbol \mu_2)^T {\boldsymbol \Sigma}^{-1} \boldsymbol x -\frac 1 2[\boldsymbol \mu_1^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_1-\boldsymbol \mu_2^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_2 ] + \ln \frac{k}{m-k} \end{aligned}
  其中,(\boldsymbol \mu_1-\boldsymbol \mu_2)^T {\boldsymbol \Sigma}^{-1} 是一个常数,记为 \boldsymbol w^T-\frac 1 2[\boldsymbol \mu_1^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_1-\boldsymbol \mu_2^T {\boldsymbol \Sigma}^{-1} \boldsymbol \mu_2 ] + \ln \frac{k}{m-k} 也是一个常数,记为 \boldsymbol b ,则上式就变成了 z = \boldsymbol w \cdot \boldsymbol x + \boldsymbol b ,可以看到这是一个线性函数。而我们的分类边界是 p(C_1|\boldsymbol x) = \sigma(z) = 0.5 ,即:
\begin{aligned} \frac {1} {1+\exp(-z)} &= 0.5 \\ \exp(-z) &= 1 \\ z = \boldsymbol w \cdot \boldsymbol x + \boldsymbol b &= 0 \\ \end{aligned}
  所以是一个线性的分类边界。既然我们去算均值,去算协方差,最后其实就是去算 \boldsymbol w\boldsymbol b ,那么为什么不直接去算 \boldsymbol w\boldsymbol b 呢?其实也是有这种方法的,也就是后面要讲的 Logistic Regression。

Logistic Regression

  Logistic Regression 是从线性函数 h_{\boldsymbol \theta}(\boldsymbol x)=\boldsymbol \theta^T \boldsymbol x 出发来进行分类的分类模型,虽然名字中有 Regression,但实际不是用来做回归任务的,而是做分类任务的。让我们先从线性回归模型来讲起,让我们忘掉我们前面所讲的概率生成模型,忘记贝叶斯,假设我们只学过最开始学的线性回归模型,现在有一个数据集让我们来做一个二分类任务。那么容易想到的一点是,我们可以把两类样本的标签分别记为 0 和 1 来进行线性回归模型的训练。但是我们的线性回归模型的输出值是连续的,也就是说一般不会正好为 0 或 1 ,那么我们就让结果大于0.5时认为是1,小于 0.5 时认为是 0 ,这样我们就能用线性回归模型来做这个分类任务了。

  然而,直觉也能让我们感觉到,这么做是会有问题的。因为我们的模型的目标是要输出结果尽可能接近 0 或 1 ,如果对于一个标签为 1 的数据,模型输出结果远大于 1 的话也会被认为是不好的,然而实际我们应该认为这是很好的,因为他离 0 更远了。所以可以想到,我们可以在与 1 比较前对线性函数的输出做一个变换,让他的值域缩小到 [0,1] 范围内,并且当线性函数的结果越大,变换后的结果应该越接近 1 ,否则应该越接近 0 。那么一个可以使用的变换就是 sigmoid function \sigma(z)
\sigma (z) = \frac {1} {1 + \exp(-z)}

  所以我们的分类模型即为

h_{\boldsymbol \theta}(\boldsymbol x)=\frac 1 {1+e^{-\boldsymbol \theta^T \boldsymbol x}}

Goodness of a function

  那么我们怎么来评价我们所找到的参数 \boldsymbol \theta 的好坏呢?我们知道,对于属于类别 1 的数据 \boldsymbol x 我们是希望他的输出 h_{\boldsymbol \theta}(\boldsymbol x) 是尽可能接近 1 的,反之则尽可能接近 0 。所以可以定义所有样本的结果的乘积为整体模型的好坏的数值上的评价,即:
L(\boldsymbol \theta) = h_{\boldsymbol \theta}(\boldsymbol x^1)h_{\boldsymbol \theta}(\boldsymbol x^2)(1-h_{\boldsymbol \theta}(\boldsymbol x^3))\cdots h_{\boldsymbol \theta}(\boldsymbol x^m)
  其中,当 y^i=0 时,乘积项是 1-h_{\boldsymbol \theta}(\boldsymbol x^i) ,否则是 h_{\boldsymbol \theta}(\boldsymbol x^i) 。我们的目标就是得到使 L 最大时的 \boldsymbol \theta 值。对两边取对数,依然不改变结果,
\ln L(\boldsymbol \theta) = \ln h_{\boldsymbol \theta}(\boldsymbol x^1)+\ln h_{\boldsymbol \theta}(\boldsymbol x^2)+\ln (1-h_{\boldsymbol \theta}(\boldsymbol x^3))+ \cdots + \ln h_{\boldsymbol \theta}(\boldsymbol x^m)
  将两边取负号,记 J(\boldsymbol \theta) =-\ln L(\boldsymbol \theta) ,将问题转化为求 J 最小时的 \boldsymbol \theta ,即
J(\boldsymbol \theta) = -\ln h_{\boldsymbol \theta}(\boldsymbol x^1)-\ln h_{\boldsymbol \theta}(\boldsymbol x^2)-\ln (1-h_{\boldsymbol \theta}(\boldsymbol x^3))- \cdots - \ln h_{\boldsymbol \theta}(\boldsymbol x^m)
  将 J 写成求和形式,有
J(\boldsymbol \theta) = - \sum_{i=1}^m[y^i\ln h_{\boldsymbol \theta}(\boldsymbol x^i)+(1-y^i)\ln(1-h_{\boldsymbol \theta}(\boldsymbol x^i))]
  仔细分析 y^i = 1y^i=0 的结果,可以发现上面两个式子是一样的,J 也被称为损失函数,用于度量模型的损失值。所以我们的目标就是最小化损失,即:
\min_{\boldsymbol \theta} J(\boldsymbol \theta)

Find the best \theta

  寻找 J 最小时的 \boldsymbol \theta 依然可以采用梯度下降的方法,其中需要计算梯度,下面推导梯度的计算公式:
\begin{aligned} \frac {\partial J(\boldsymbol \theta)} {\partial \theta_j} &= -\sum_{i=1}^m[y^i \frac {\partial \ln h_{\boldsymbol \theta}(\boldsymbol x^i)}{\partial \theta_j}+(1-y^i) {\frac {\partial \ln (1-h_{\boldsymbol \theta}(\boldsymbol x^i))} {\partial \theta_j}}] \end{aligned}
  其中 h_{\boldsymbol \theta}(\boldsymbol x) = \sigma(z)z = \boldsymbol \theta^T \boldsymbol x ,则由链式法则(复合函数求导法则):
\begin{aligned} \frac {\partial \ln h_{\boldsymbol \theta}(\boldsymbol x^i)}{\partial \theta_j} &= \frac {\partial \ln \sigma(z^i)}{\partial z^i} \frac {\partial z^i}{\partial \theta_j} \\ &=\frac 1 {\sigma(z)} \sigma(z)(1-\sigma(z))x_j^i \\ &= (1- h_{\boldsymbol \theta}(\boldsymbol x^i))x^i_j \end{aligned}

\begin{aligned} \frac {\partial \ln (1-h_{\boldsymbol \theta}(\boldsymbol x^i))}{\partial \theta_j} &= \frac {\partial \ln (1-\sigma(z^i))}{\partial z^i} \frac {\partial z^i}{\partial \theta_j} \\ &=\frac 1 {1-\sigma(z)} [-\sigma(z)(1-\sigma(z))]x_j^i \\ &= - h_{\boldsymbol \theta}(\boldsymbol x^i)x^i_j \end{aligned}

  将两个式子代回去,得到
\begin{aligned} \frac {\partial J(\boldsymbol \theta)} {\partial \theta_j} &= -\sum_{i=1}^m[y^i (1- h_{\boldsymbol \theta}(\boldsymbol x^i))x^i_j+(1-y^i)(- h_{\boldsymbol \theta}(\boldsymbol x^i)x^i_j)] \\ &=-\sum_{i=1}^m(y^i - h_{\boldsymbol \theta}(\boldsymbol x^i)) x^i_j \end{aligned}
  如果还记得的话,这个求偏导后的结果的形式和线性回归中的是一样的,只是 h_{\boldsymbol \theta}(\boldsymbol x) 的计算公式不同。

Why not square error

  上面的目标函数都是从最大化下面这个函数出来的,而这个函数又是我们自己定义的
L(\boldsymbol \theta) = h_{\boldsymbol \theta}(\boldsymbol x^1)h_{\boldsymbol \theta}(\boldsymbol x^2)(1-h_{\boldsymbol \theta}(\boldsymbol x^3))\cdots h_{\boldsymbol \theta}(\boldsymbol x^m)
  那么一个很自然的想法就是,为什么我们不用线性回归中的最小化差值的平方的均值来找 \boldsymbol \theta 呢?我们可以来尝试一下,如果用这个的话,我们的损失函数就变成了:
J(\boldsymbol \theta) = \frac {1} {2m} \sum_{i=1}^m (y^i - h_{\boldsymbol \theta}(\boldsymbol x))^2
  那么求偏导后的结果就是:
\begin{aligned} \frac {\partial J(\boldsymbol \theta)} {\partial \theta_j} &= \frac 1 {2m} \sum_{i=1}^m2(y^i - h_{\boldsymbol \theta}(\boldsymbol x))(-\frac {\partial h_{\boldsymbol \theta}(\boldsymbol x) }{\partial \theta_j}) \\ &= - \frac 1 {m} \sum_{i=1}^m(y^i - h_{\boldsymbol \theta}(\boldsymbol x))h_{\boldsymbol \theta}(\boldsymbol x) (1-h_{\boldsymbol \theta}(\boldsymbol x) ) \end{aligned}
  那么假设训练集中有一个数据,他的分类标签是 1 ,但是经过 h_{\boldsymbol \theta}(\boldsymbol x) 后得到的结果是 0 ,也就是说这个模型分类的结果非常错,按理说应该会狠狠的更新一下 \theta ,但是将这两个参数带进偏导公式可以得到偏导是 0 ,也就是说不会更新。

  让我们把两种损失函数的取值与 \theta 的取值的图画出来,最上面的那种计算损失的方式也叫交叉熵。可以看到在红色的平面上,有些地方是非常平的,在我们的梯度下降中,就会造成基本不更新参数而被误认为已经到达了极值点。

Multi-class Classification

  多分类任务其实可以通过训练多个函数,每个类对应一个函数,如果属于这个类,则标签设为 1 ,否则设为 0 。这样多个函数就会有多个结果,假设有 n 个,记为 z_i 。经过一个 Softmax function 得到属于第 i 类的概率:
y_i = \frac {e^{z_i}} {\sum_{j=1}^n e^{z_j}}

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,372评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,368评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,415评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,157评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,171评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,125评论 1 297
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,028评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,887评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,310评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,533评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,690评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,411评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,004评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,659评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,812评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,693评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,577评论 2 353