Logistics回归与Fisher线性判别分析

Logistics回归与Fisher线性判别分析

Logistic回归

  • 阶跃函数

    对于二分类任务来说,线性回归模型产生连续的预测值,需要将其转化为y\in \{0, 1\}

    最理想方式是将预测值z带入如下的单位阶跃函数:
    y =\left\{ \begin{array}{l} 0 & z \leq 0 \\ 0.5 & z = 0 \\ 1 & z > 0 \end{array} \right.
    然而阶跃函数不连续、无法微分,于是找到替代函数(对数几率函数):
    y = \frac{1}{1+e^{-x}}

  • 具体算法

    1. 初始化模型,输入数据集:
      D = \{ (x_1,y_1),...,(x_m,y_m)\} \in R^{m * d},y_i\in\{0,1\}

    2. 模型输出:

      • 初始化模型参数w \in R^{d}, b \in R

      • 建立逻辑回归模型
        p_1(x) = p(y = 1|x) = \frac{e^{w^Tx+b}}{1+e^{w^Tx+b}}\\ p_0(x) = p(y=0|x) = \frac{1}{1+e^{w^Tx+b}}
        \beta = (w,b),\tilde{x_i} = (x_i,1)
        p_1(x) = p(y = 1|x) = \frac{e^{\beta^T\tilde{x_i}}}{1+e^{\beta^T\tilde{x_i}}}\\ p_0(x) = p(y=0|x) = \frac{1}{1+e^{\beta^T\tilde{x_i}}} \\ \ln{\frac{p_1(x)}{p_0(x)}} = \beta^T\tilde{x_i}\\ \ln p_{0}(x) = \ln(1 - p_1(x)) = -\ln(1 + \beta^T\tilde{x_i})

    3. 令输出结果y_i服从两点分布,有P(y_i|x_i,\beta) = p_1(x)^{y_i}(1 - p_(x))^{1 - y_i}
      \begin{array}{l}\ln P(y_i|x_i,\beta) \\ = y_i\ln p_1(x_i) + (1 - y_i)ln(1-p_1(x)) \\ = y_i\ln \frac{p_1(x)}{1-p_1(x)}+ \ln(1 - p_1(x))\\ = y_i \beta^T\tilde{x_i} -\ln(1 + \beta^T\tilde{x_i}) \end{array}
      构造样本D = \{ (x_1,y_1),...,(x_m,y_m)\}的对数似然函数
      L(\beta) = \prod_{i=1}^mp(y_i|x_i,\beta)\\ -\ln L(\beta) = \Sigma_{i=1}^m(-y_i \beta^T\tilde{x_i} +\ln(1 + \beta^T\tilde{x_i}))

      将负对数似然函数作为损失函数,求其最小值
      \frac{\partial-\ln L(\beta)}{\partial\beta_j} = -\Sigma_{i=1}^m\tilde{x}_{ij}(y_i - p_1(\tilde{x}_i;\beta))\\ \frac{\partial^2{-\ln L(\beta)}}{\partial\beta_j\partial\beta_k^T} =- \Sigma_{i=1}^m\tilde{x}_i\tilde{x}_i^Tp_1(\tilde{x}_i;\beta)(1-p_1(\tilde{x}_i;\beta))

      特别地有:
      \frac{\partial^2{-\ln L(\beta)}}{\partial\beta_0\partial\beta_j^T} =- \Sigma_{i=1}^m\tilde{x}_ip_1(\tilde{x}_i;\beta)(1-p_1(\tilde{x}_i;\beta))\\ \frac{\partial^2{-\ln L(\beta)}}{\partial\beta_0\partial\beta_0^T} =- \Sigma_{i=1}^mp_1(\tilde{x}_i;\beta)(1-p_1(\tilde{x}_i;\beta))
      令一阶导数等于0,通过数值方法求出\vec \beta

      再将\beta带入二阶偏导数构成的Hesse矩阵,若矩阵正定,则负对数似然函数在\vec \beta处取得极小值

      将得到的\vec \beta带入p_1(x),得到训练后的Logistic回归模型

梯度下降法

image-20200420223613139.png

Hesse矩阵

image-20200420224945921.png

牛顿法和拟牛顿法

image-20200420224646366.png
image-20200420224709214.png
image-20200420224730516.png
image-20200420224753994.png

Fisher 线性判别分析

  • 线性判别分析(Linear Discriminant Analysis),LDA是一种经典的线性学习方法,最早由Fisher提出,也称作“Fisher判别分析”
  • LDA的思想:给定训练样例集(包含两个特征),设法将样例投影到一条直线上使得同类样例的投影点尽可能接近、异类样例投影点尽可能相互远离。在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别
image-20200420232430335.png
  • 给定数据集D = \{(x_i,y_i)\}_{i=1}^m,y_i \in \{0,1\},令X_i,\mu_i,\Sigma_i分别表示第i类示例的集合、均值向量、协方差矩阵。若将数据投影到直线y = w^Tx上,则两类样本的中心在直线上投影为w^T\Sigma_0ww^T\Sigma_1w

  • 要使得样例的投影点尽可能接近,可以使同类样例投影点的协方差w^T\Sigma_0w+w^T\Sigma_1w尽可能小

    要使得异类样例的投影点尽可能远离,即||w^T\mu_0-w^T\mu_1||^2尽可能大,由此得到目标函数
    J = \frac{||w^T\mu_0-w^T\mu_1||^2}{w^T\Sigma_0w+w^T\Sigma_1w}=\frac{w^T(\mu_0-\mu_1)(\mu_0-\mu_1)^Tw}{w^T(\Sigma_0+\Sigma_1)w}
    定义“类内散度矩阵”
    S_w =\Sigma_0+\Sigma_1 = \Sigma_{x \in X_0}(x - \mu_0)(x - \mu_0)^T + \Sigma_{x \in X_0}(x - \mu_1)(x - \mu_1)^T
    定义“类间散度矩阵”
    S_b = (\mu_0 - \mu_1)(\mu_0 - \mu_1)^T
    目标函数重写为
    J = \frac{w^TS_bw}{w^TS_ww}
    S_bS_w的"广义瑞利商"

  • 为了确定w,由于分子分母均含有w,因此Jw的模长无关而仅与其方向有关,得到等价的约束优化目标:
    min_w -w^TS_bw\\ s.t. w^TS_ww = 1
    利用拉格朗日乘子法
    L(w) = -w^TS_bw + \lambda (w^TS_ww - 1)\\ \frac{\partial L(w)}{\partial w} = 0 \\
    解得
    S_bw = \lambda(\mu_0 - \mu_1)\\ w = S_w^{-1}(\mu_0 - \mu_1)
    实践中通常对S_w进行奇异值分解,分别求出分解矩阵的逆,进而求得S_w^{-1}

  • 推广到多分类问题,假定存在N个类,第i类样例数为m_i

    定义“全局散度矩阵”
    S_t = S_b + S_w = \Sigma_{j=1}^N\Sigma_{i=1}^{m_j}(x_i - \bar \mu)(x_i - \bar \mu)^T
    定义“全局类内散度矩阵”
    S_w = \Sigma_{i=1}^{N}S_{w_i} = \Sigma_{i=1}^{N}\Sigma_{x \in X_i}(x - \mu_i)(x - \mu_i)^T
    由此得到“全局类间散度矩阵”
    S_b = S_t - S_w =\Sigma_{i=1}^Nm_i(\mu_i - \bar \mu)(\mu_i - \bar \mu)^T
    由此可知S_t,S_b,S_w可以做到“知二推三”

  • 多分类问题常见的优化目标
    \max_{W} \frac{tr(W^TS_bW)}{tr(W^TS_wW)}, W \in \mathbb R^{d * N-1}
    按照相似的拉格朗日乘数法,令\frac{\partial L(W)}{\partial W} = 0得到
    S_bW = \lambda S_wW \\ W = \lambda S_b^{-1}S_wW
    W的闭式解恰好是S_b^{-1}S_w的N-1个最大广义特征值对应的特征向量组成的矩阵

  • LDA可以被视为一种经典的监督降维技术,例如将二维的样本(x_i,y_i)投影到一维直线y = w^Tx

奇异值分解

image-20200502143516296.png
image-20200502143655327.png
image-20200502143720227.png

参考内容

伪逆矩阵(广义逆矩阵)https://www.jianshu.com/p/609fa0cce409

奇异值分解(SVD)https://zhuanlan.zhihu.com/p/29846048

统计学习方法 李航

机器学习 周志华

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,753评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,668评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,090评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,010评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,054评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,806评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,484评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,380评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,873评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,021评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,158评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,838评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,499评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,044评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,159评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,449评论 3 374
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,136评论 2 356