机器学习02-从线性回归到逻辑斯蒂回归

之前一节,讲了线性回归的一些理解, 其实传统的机器学习方法,和线性回归或多或少都有关系。

线性回归有三个特点, 线性,全局性, 数据未加工, 我们依次来看这个问题。

(1)线性方面

a.属性线性,f(x) 和 x各个特征是线性关系,例如f(x) = w1 * x1 + w2 *x2, 当属性线性不满足的时候,就引入特征转换了,例如多项式回归模型。

b.全局线性,f(x)只是一个线性组合,然后就直接输出了结果,我们可以在线性方程后面加入一个非线性变换,即引入一个非线性的激活函数,就可以得到新的模型,典型的有线性分类模型如感知机,逻辑斯蒂回归等

c.系数线性,f关于w也是线性的,系数本身不可能是多次的,这个概念,指的是对于模型而言,不同系数初始值下,系数是会变化的,例如神经网络,感知机。

(2)全局性方面,最简单的线性回归,拟合出一条直线,在整个特征空间上都是统一的。可以在不同区域引入不同的线性或非线性关系,打破全局性,例如决策树模型,线性样条回归

(3)原始数据方面,直接拿来做回归,没有进行任何数据加工,例如维度高了可以进行PCA降维等。

其他的模型,其实就是在打破线性回归这些特点中的一个或多个,这就构建起了整个统计机器学习的架构。


今天我们主要讲线性分类,可以看到它是打破了线性回归中的全局线性特点。

 线性分类可以分为两大类,(1)硬分类 (2)软分类。

简单来说,硬分类就是直接给出label是0还是1的,软分类给的是[0,1]的概率。

硬分类比如 线性判别分析(fisher判别分析),感知机等。

软分类里可以继续分为 生成式(例如朴素贝叶斯(离散变量), 高斯判别分析(连续变量))和 判别式(逻辑回归),生成式和判别式的区别在于,判别式是直接求概率的,而生成式是求联合概率的。现在看可能有点晕,等碰到生成式的时候可能更好理解。


今天我们首先讲逻辑斯蒂回归,虽然名字里是回归,但它是一个分类模型, 是不满足全局线性下的回归演变而来。简单起见,我们先讨论二分类问题。

首先介绍一下激活函数 sigmoid函数 f(x) = \frac{1}{1+exp(-x)}


sigmoid函数

把激活函数和线性回归结合起来, h_{\theta}(x) = f(\theta^Tx) = \frac{1}{1+exp(-\theta^Tx)}

首先来理解一下为什么sigmoid可以用来分类, h_{\theta}(x)其实就是label为1的概率,当\theta^Tx的取值为0 的时候, 值是0.5, 当\theta^Tx越大, 值越接近1,可以认为label是1 的概率越大。

p(y=1) = h_\theta (x) = \frac{1}{1+exp(-\theta^Tx)} p(y=0) = 1 - p(y=1) = \frac{exp(-\theta^Tx)}{1+exp(-\theta^Tx)}

回顾一下上一讲的内容,对于统计机器模型,定义了模型了之后,第二步就是定义损失函数了。

我们从最大似然角度出发, p(y) = \prod_{i=1}^n h_\theta(x_i)^{y_i} (1-h_\theta(x_i))^{1-y_i}

这个式子乍一看比较难理解, 其实在yi=1的时候,只留下前一项了,当yi=0的时候, 只剩下后一项了。

对数似然函数 log(p(y)) = log(\prod_{i=1}^n h_\theta(x_i)^y_i * (1-h_\theta(x_i))^{1-y_i}) = \sum_{i=1}^n (y_ilogh_\theta(x_i) +(1-y_i)log(1-h_\theta(x_i)))

然后我们可以定义我们的损失函数了,最大化对数似然函数,即最小化负的对数似然函数,

J(\theta) = -\frac{1}{n} \sum_{i=-1}^n y_ilogh_\theta (x_i) + (1-y_i)log(1-h_\theta (x_i)

上式其实是交叉熵,这个概念之后会细讲。这边主要理解损失函数的由来就可以了。第三步就是通过算法求解最优化问题了,即最小化损失函数,现在我们引出前一节没讲的梯度下降了。具体的梯度下降原理后续会新写一篇来介绍各种优化方法, 简单理解,梯度是上升最快的方向,沿着负梯度方向前进可以使目标函数变小,但是步伐如果过大,忽略的二阶导项可能就不能忽略了。所以要定义一个学习率,避免步子太大。

我们首先讲一下sigmoid函数的导数, f(x) = \frac{1}{1+e^{-x}}

f’(x) = -1(1+ e^{-x})^{-2}e^{-x}(-1) = (1+e^{-x})^{-2}e^{-x} = \frac{e^{-x}}{(1+e^{-x})^2}

=\frac{1+e^{-x}-1}{(1+e^{-x})^2}  = \frac{1}{1+e^{-x}} - \frac{1}{(1+e^{-x})^2}  =  \frac{1}{1+e^{-x}}(1- \frac{1}{1+e^{-x}}) = f(x)(1-f(x))

可以看出sigmoid的导数还是很漂亮的。

回到最小化损失函数上,我们对损失函数求梯度, 以参数\theta_j为例

\frac{\partial J(\theta)}{\partial\theta_j}  = -\frac{1}{n}\sum_{i=1}^n(y_i  \frac{1}{h_\theta(x_i)} - (1-y_i)\frac{1}{1-h_\theta(x_i)})\frac{\partial h_\theta(x_i)}{\partial \theta_j}

=  -\frac{1}{n}\sum_{i=1}^n(y_i  \frac{1}{h_\theta(x_i)} - (1-y_i)\frac{1}{1-h_\theta(x_i)})h_\theta (x_i)(1-h_\theta (x_i))x_i^j = -\frac{1}{n}\sum_{i=1}^n(y_i - h_\theta (x_i))x_i^j

= \frac{1}{n}\sum_{i=1}^n(h_\theta (x_i) - y_i)x_i^j

参数\theta的每一个维度都是一样的求法,然后我们定义一个学习率,沿着负梯度方向,就可以一步步收敛,求得模型的参数了。

LR模型暂时先讲到这里,以后想到什么新的会继续往上面添加。

转发请注明,谢谢。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,776评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,527评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,361评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,430评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,511评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,544评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,561评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,315评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,763评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,070评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,235评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,911评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,554评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,173评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,424评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,106评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,103评论 2 352