李宏毅ML05—Logistics Regression

Logistics Regression

1 逻辑回归和线性回归的比较

  • 先给出结论的表格
Logistics Regression Linear Regression
f_{w,b}(x)=\sigma(\sum\limits_iw_ix_i+b) f_{w,b}(x)=\sum\limits_iw_ix_i+b
Output: 0~1 Output: 任何值
L(f)=\sum\limits_nC(f(x^n),y^n) L(f)=\frac{1}{2}\sum\limits_n(f(x^n)-y^n)^2
y^n:1 代表Class1,0 代表 Class2 y^n 是真实的数值
w_{i+1}=w_i-\eta\sum\limits_n-(y^n-f_{w,b}(x^n))x_i^n 同左边
  • 其中Cross Entropy:C(f(x^n),y^n)=-[y^n\ln(f(x^n))+(1-y^n)\ln(1-f(x^n))]
  • 为什么要用Cross Entropy(交叉熵),为什么不直接用线性回归中的 Square Error?
    在逻辑回归中,如果用Square Error,经过公式推导,若y^n=1,则当f(x^n)等于1(close to Class1)或者等于0(far from Class1)时,\frac{\partial L}{\partial w_i}都将为0.
    Cross Entropy vs Square Error

1.1 LR的损失函数和梯度下降

1.1.1 Likelihood function

  • Likelihood(w,b) = L(w,b)=f_{w,b}(x^1)f_{w,b}(x^2)(1-f_{w,b}(x^3))...f_{w,b}(x^N)
    求该函数的最大值,为了方便,转化成下面的函数,求最小值点
    \begin{align*} -\ln L(w,b) & = \ln f_{w,b}(x^1)+\ln f_{w,b}(x^2)+\ln (1-f_{w,b}(x^3))...\\ & = \sum\limits _n-[y^n \ln f_{w,b}(x^n)+(1-y^n)\ln (1-f_{w,b}(x^n))] \end{align*}
    其中y^n为1时,代表Class1,为0时,代表Class2

1.1.2 梯度下降过程

  • \frac{\ln L(w,b)}{\partial w_i}=\frac{\partial \ln(1-f_{w,b}(x))}{\partial w_i}=-\frac{1}{1-\sigma(z)}\frac{\partial\sigma(z)}{\partial z}=-\sigma(z)
    这是损失函数里中括号里的一项,最终可将损失函数化简得
    \frac{-\ln L(w,b)}{\partial w_i}=\sum\limits _n -(y^n-f_{w,b}(x^n))x^n_i
    w_{i+1}=w_i-\eta\sum\limits _n -(y^n-f_{w,b}(x^n))x^n_i

1.2 Discriminative vs Generative

  • Discriminative 和 Generative 是两种寻找参数的方法
    前者直接找到wb
    后者会找到\mu1,\mu2,\Sigma^{-1}
  • 两者最终得到的w和b是不一样的
  • 从最终的测试结果来说,Discriminative 得到的结果是更好的
    但是Generative Model 在一些情况下会得到更好的结果,因为Generative Model 会有“脑补的过程”
    即,在样本集合中不存在的某个样本,也会被Generative脑补出来,这样的样本在一个大的样本集合中可能会出现。


    Generative 判断两个红球同时出现的可能性 Class2 更大
  • Generative 的好处
    对训练集的数量要求更小
    对训练集的噪音抗干扰能力更强

1.3 Multi-Class Classification

以三个类为例
C1:w^1,b_1;z_1=w^1·x+b_1
C2:w^2,b_2;z_2=w^2·x+b_2
C1:w^3,b_3;z_3=w^3·x+b_3
如下图所示,三个类经过Softmax函数之后,最终的值都会落在0,1之间

大的越大,小的越小

1.3.1 Softmax 原理

  • 假设有3个Class,都是高斯分布,共用同一个协方差矩阵,这种情况下,做一般推导以后,得到的就是softmax function

1.3.2 Softmax 损失函数

  • L(x_i)=-\sum\limits_{i=1}^3y_i^*\ln y_i
  • x属于 Class1时
    y^*=\begin{bmatrix} 1\\ 0\\ 0 \end{bmatrix}
  • x属于 Class2时
    y^*=\begin{bmatrix} 0\\ 1 \\ 0 \end{bmatrix}
  • x属于 Class3时
    y^*=\begin{bmatrix} 0\\ 0\\ 1 \end{bmatrix}
    用这种方式表示y^*的好处是,Class之间不再有某两者更加近的距离(如2比1离3更近)

1.3.3 Softmax 梯度下降

更新中...

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 221,635评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,543评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,083评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,640评论 1 296
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,640评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,262评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,833评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,736评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,280评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,369评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,503评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,185评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,870评论 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,340评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,460评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,909评论 3 376
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,512评论 2 359