李宏毅机器学习(七)逻辑回归Logistic Regression

我们将上堂课最后的内容回顾下,我们利用线性模型z=wx+b带入sigmoid函数后就得到了概率

插图1

如果x是个I维的特征向量,就有如图所示的输出,z少写了个+b

插图2

我们比较逻辑回归和线性回归

第一处区别是,逻辑回归的输出经过sigmoid函数,其输出是介于0,1之间的,而线性回归是正负无穷间的任何值

插图3

假设我们有N个样本,2分类每个样本的实际分类分别为C1,C2,根据训练集生成的概率模型,给定w,b取N组数据生成训练集数据的概率是图中的式子,使L(w,b)取最大的w,b我们记为w^*,b^*

插图4

我们可以目标值是C1定义为1,C2定义为0,当然图中错了,应该是1,1,0而不是1,0,1,我们对上图l(w,b)求最大值就变成了-lnL(w,b)的最小值,因为L(w,b)是乘积,就可以左下展开,我们带入后就可以得出每项是右下的式子

插图5

由于目标值已知,带入0,1可以消去一些无用项

插图6

我们求-lnL(w,b)就有了如图中的通项和,其内涵实际是伯努利分布(二分类)的交叉熵

插图7

第二处区别:

所以逻辑回归的损失函数就是交叉熵求和,当0,1分布(目标值)和概率模型接近时,使得损失函数最小,

而线性回归的损失函数是误差平方和

有人就会想问了,我们把逻辑回归能不能也按误差平方和来算损失函数呢

插图8

我们如何为了求-lnL(w,b)的最小,可以使用梯度下降来求解,这里先求出对w的偏微分,图中的图是\sigma (z)即sigmoid(z)的微分和本身的示意图,\sigma (z)求导就是\sigma (z)(1-\sigma (z)),算式右侧加号左边的偏微分可以求出即(1-f_{w,b} (x^n ))*x_{i}^n

插图9

同理,将右侧求偏微分带入后,可得出图中结果,因此我们更新wi就收到3个影响,1是学习率,2是样本第i个参数,第三个是样本目标值和概率结果的差值,我们也能看出差别越大,我们的更新就越大

插图10

我们比较第三个区别

其实线性回归和逻辑回归他们的权重更新的式子是一样的,但是区别就在于,目标值逻辑回归就是0,1,而线性回归是任意值,而逻辑回归f(w,b)是0,1之间的值,线性回归也是任意值

插图11

我们之前问过能不能用方差做逻辑回归的损失函数,我们这里就验证下,经过一番推导,我们得出式子,样本是1,如果函数生成1,此时函数的微分是0,看起来好像很不错,可是当f是0时(离目标较远),也会微分是0

插图12

我们把损失函数用交叉熵和误差平方和可以得到如下立体图形,可以看到平方和在目标值处和离目标值较远的点都比较小,而且平方和梯度比较小,步进很慢。也有人说我们可以把梯度小的时候设计得学习率大啊,可是当梯度小的时候也可能离目标点比较近,我们采用大的学习率是不行的。

所以使用交叉熵作为逻辑回归的损失函数会好很多

插图13

Discriminative and Generative   可判别的和可生成的

我们用逻辑回归生成概率模型的方式叫做可判别的,我们再之前使用某种几率模型(如高斯分布)叫做可生成的

两个模型都是使用的相同的概率公式,前者是用梯度下降求得w,b,后者使用公式求出w,b。我们会有疑问,两个方法得出的w,b会是一样的么,因为前者并没有使用任何假设,而后者假设其是正态(也可以考虑伯努利分布等其他概率分布模型)分布的

插图14

我们采用2种模型分别进行了水系和一般系宝可梦的分类,从图上大致看不太出来区别,但是当我们考虑了7个特征后,generative的概率73%,discrimitive的概率79%,后者看着似乎更好一点

插图15

为了更好地理解上述,我们举个例子,一共13个数据,1个1类,12个2类,每个样本有2个特征,每个特征取值分别可能为0,1,那问题来了,如果有一个样本2个特征都是1,你会判断他是哪个类别呢?会是常识判断过去的1吗?

我们用朴素贝叶斯计算下

插图16

第一个分类的概率为1/13,第二个为12/13,第一类前提下第一个特征为1的概率为1,第一类前提下第二个特征为1的概率也为1,第二类前提下第一个特征为1的概率为1/3,第二类前提下第二个特征为1的概率为1/3(图中C2写成C1了)

插图17

我们根据公式带入可求出2个特征都是1的情况下,是第一类的概率结果比0.5小,这就是意味着2个特征都是1的是C2的概率比C1大,我们以概率分布generative来考虑,就是我们有可能有这样的样本,不过是样本量不够大,没出现这样的样本而已。

插图18

大多数情况下,discriminative model是比generatvie model好的,但也不是绝对,下面我们分析下generative model的优点:

1假设分布模型的时候,我们可以使用很少的样本数据量

2我们受噪声影响的比较小

3可以从不同的源评估优先可能性(这里感觉老师没有讲的很清楚)

插图19

多分类

多分类和2分类很类似,我们也是找到w,b,对于每个分类,分别求得z1,z2,z3将其e指数化,以图中为例,在除以所有e^z 的加和,就得到介于0,1的新概率,而且他们之间的加和是为1的,这种方法叫做softmax,为什么叫做softmax,这是因为我们会对不同的值做强化(大小值之间分的更开,有利于分类),使其成e的指数级变化。

插图20

以3分类为例,我们的目标值向量可能分别是1,0,0      0,1,0          0,0,1三种,我们还是采用交叉熵来做损失函数,因为交叉熵最小的过程就是使概率逼近目标值的过程。

插图21

逻辑回顾的限制

以一个2分类为例,输入权重w1,w2我们有如下样本(0,1)(1,0)为1类,(0,0),(1,1)为2类,而根据逻辑回归我们要找到一条直线,无法用一条直线有效的实现分类

插图22

我们可以尝试对特征进行处理,比如生成新的特征向量,x1'为到0,0的距离,x2'为到1,1的距离,我们处理后,之前0,1和1,0就变成了1,1点重合到一起,而之前的0,0变成了0,\sqrt{2} , 原来1,1变成了\sqrt{2} ,0,我们就可以找到一条直线作为边界了,当然图中左下一个(0,1)应该为(1,0),但是麻烦的问题是我们不知道怎么这么变换,我们希望程序自动化实现,如果有一个逻辑回归可能实现不了分割,但是有多个逻辑回归就可能实现。

插图23

我们的一个逻辑回归,他的输入可以是其他逻辑回归的输出,他的输出也可以是其他逻辑回归的输入,这样的一个逻辑回归单元,我们叫做Neuron(神经元),所有神经元组成的叫做Neuron Network(神经网络,简写NN)

哇,好高大上啊,我们就要进入深度学习的范畴啦

插图24
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,204评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,091评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,548评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,657评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,689评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,554评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,302评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,216评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,661评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,851评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,977评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,697评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,306评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,898评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,019评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,138评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,927评论 2 355