[转]逻辑回归本质

Logistic Regression 本质论

发表于2016-07-08|   分类于机器学习|

LR essential in one sentence

关于Logistic Regression

LR为什么叫做LR?

logistic 和 logit

从LR模型的公式说开去

Logistic Regression 的本质

引申

注意:这不是一篇LR的入门文章,本文假定读者已经了解LR的推导和基本原理,建议有LR基础的同学阅读本文。

LR essential in one sentence

LR 本质上是对正例负例的对数几率做线性回归,因为对数几率叫做logit,做的操作是线性回归,所以该模型叫做Logistic Regression。

LR 的输出可以看做是一种可能性,输出越大则为正例的可能性越大,但是这个概率不是正例的概率,是正例负例的对数几率。

关于Logistic Regression

我们都知道Logistic Regression(LR)模型是工业界使用非常多的一个模型,它的优点非常明显:

模型非常简单。应用到线上时,prediction的计算非常容易做。在O(1)的时间复杂度之内就能够给出模型的预测值,这对于线上数据暴风雨般袭来的时候非常有用。

y^=11+e−(wx+b)(1)(1)y^=11+e−(wx+b)

模型可解释性强。对于LR模型,每个特征xixi的参数wiwi就是该特征的权重,wiwi越大,则特征权重越大;越小,则特征权重越小。因此LR的模型往往非常直观,而且容易debug,而且也容易手动修改。

模型的输出平滑。由于Logistic function的作用,LR的输出值是(0,1)之间的连续值,更重要的是,这个值能从某种角度上表示样本x是正例的可能性, 输出值越接近1,则样本是正例的可能性就越大,输出值越接近0,样本是负例的可能性就越大。注意这里的用词,是样本x是正例的可能性,而不是样本x是正例的概率。

总之,在LR能够用上的地方,它总是大放异彩。

很多人都说模型输出能代表样本是正例的概率,这种说法是错误的;

有人说模型的输出代表样本是正例的可能性是因为模型的输出正好映射到了(0,1)区间,和概率的取值范围相同,也完全没有道理。

LR为什么叫做LR?

Logistic Regression模型中文一般被叫做“逻辑斯蒂回归”或“逻辑回归”,然而这个名字并没有什么实质含义,实际上Logistic一词和“逻辑”一词并没有什么关系。周志华在其《机器学习》中,将LR翻译做“对数几率模型”,我认为是妥当的。

在解释之前,我们尝试对LR的label换一种理解方式。在LR模型中,我们给正例赋予1的label,负例赋予0的label。从另一个角度,label可以看做该样本属于正例的概率,label为1表示“该样本有1的概率属于正例”, label为0表示“该样本有0的概率属于正例”。

logistic 和 logit

LR的logistic 来源于 logit,是logit的形容词,logit function在中文叫做“对数几率”,是正例负例概率之比的自然对数。

logit(x)=logx1−x(2)(2)logit(x)=logx1−x

对数几率(注意不是对数概率),是某种意义的表达x是否属于正例的可能性,x为正例的可能性越高,则其对数几率就越高。反之,x的对数几率越高,其为正例的可能性就越大。

注意这种可能性,并不和概率完全等价,两者只是正相关的关系。

从LR模型的公式说开去

我们尝试把LR的公式推导成我们喜闻乐见的形式:

y=11+e−(wx+b)(3)(3)y=11+e−(wx+b)

1y=1+e−(wx+b)(4)(4)1y=1+e−(wx+b)

1−yy=e−(wx+b)(5)(5)1−yy=e−(wx+b)

logy1−y=wx+b(6)(6)logy1−y=wx+b

(6)的表述清晰而简单:左侧是logit,右侧是线性回归。

Logistic Regression 的本质

所以,LR模型就是通过线性回归对目标的对数几率进行拟合。这就是LR的本质。

所以为什么LR的结果能够在某种程度上代表目标属于正例的可能性,因为LR拟合的就是目标的对数几率,而对数几率能够代表目标属于正例的可能性。

所以这个模型叫做Logistic Regression。

引申

由此引申出去,LR的label并不一定非要是0和1,LR也不一定只能处理二分类问题,因为其label是其对数几率。

比如,有下面一个问题,对文章的相关性进行训练,label可以分成三类,相关,弱相关和不相关,其label分别为1,0.5,0,也完全可以拿到LR中进行训练—-因为这个label也可以代表样本属于正例的概率。

再引申出去,logistic function的同门师兄,sigmoid函数家族的一员,tanh,经过推导,其实也满足同样的条件。只不过为什么没有一个tanh regression, 我就不得而知了:-)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容