机器学习吴恩达——第二周

7 逻辑回归

7.1 分类问题

    在分类问题中,我们要预测的变量y是离散的值,比如说0,1。这时我们可以采用逻辑回归来处理问题。

    在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;之前我们 也谈到了肿瘤分类问题的例子,区别一个肿瘤是恶性的还是良性的。

    首先是二元的分类问题,那么结果y只有两种情况,0和1.


二元分类问题

对于线性回归来说,其结果可能大于1或者小于0。但对于逻辑回归来说,其输出值永远在0和1之间。

7.2 假说表示

    逻辑回归的输出变量范围始终在0和1 之间,逻辑回归模型的假设是:h𝜃(𝑥) = 𝑔(𝜃𝑇𝑋)。其中:X表示特征向量,g表示逻辑函数中的一个常用的函数:S形函数。其公式为𝑔(𝑧)=(1+e的负z次方)分之1。


S函数图像

    h𝜃(𝑥)的作用是,对于给定的输入变量,根据选择的参数计算输出变量=1 的可能性,即h𝜃(𝑥) = 𝑃(𝑦 = 1|𝑥; 𝜃)。

    比如说h𝜃 (𝑥)等于0.6,即说明y=1的概率为0.6,y=0的概率为0.4。

7.3 判定边界

    这里首先给出(下)决策边界的定义:

逻辑回归函数图像

    在逻辑回归中,我们认为hx大于等于0.5时,y=1,反之y=0。而在gz图像中我们可以看出来,z=0的时候gz=0.5。z>0的时候gz大于0.5,z<0的时候gz小于0.5。即,z大于0,y=1,z小于0,y=0.

即z是判断y=0还是=1的边界。

再比如说:


图1
图2

在图1中凡是x1+x2的值高于中间的线的时候,都认为y=1,反之认为y=0。

在图二中这条边界线则变成了一个圆。

也就是说,在不同情况下的边界线是不相同的,那么就需要不同的判别式进行拟合。

7.4代价函数

    承接上文,我们既然要对不同对判别式进行拟合,那么如何拟合逻辑回归模型的参数𝜃呢?这里又需要和线性回归一样,定义代价函数。

    对于线性回归,我们定义的代价函数是所有模型误差的平方和。但是对与逻辑回归的hx来说,如果同样用这样的代价函数,那么我们得到的代价函数将是一个非凸(non-convex)函数。


非凸与凸

那么代价函数就存在许多局部最小值,影响梯度下降算法寻找全局最小值。

因此我们重新定义逻辑回归的代价函数:


代价函数


cost函数

可以得出hx与cost的关系:


cost与hx

从图中图像可以得知,当y=1的时候,如果hx等于1,则代价为0,如果hx小于1,则hx越小于1,代价就越大。如果hx等于0,则代价无限大。同理y=0的时候也是如此。

将构造的cost简化如下:

简化后的cost

得到代价函数之后就可以用梯度下降算法来求得使代价函数最小的参数了。

具体算法为:


梯度下降具体做法

虽然凸性分析我们没学过,但是视频中证明了我们选的代价函数会造成一个凸优化问题,代价函数会是一个凸函数,且没有局部最优值。

注:特征缩放依旧在逻辑回归的梯度下降里必要!

一些梯度下降算法之外的选择: 除了梯度下降算法以外,还有一些常被用来令代价函数最小的算法,这些算法更加复杂和优越,而且通常不需要人工选择学习率,通常比梯度下降算法要更加快速。这些算法有:共轭梯度(Conjugate Gradient),局部优化法(Broydenfletcher goldfarb shann,BFGS)和有限内存局部优化法(LBFGS) ,fminunc 是 matlab 和 octave中都带的一个最小值优化函数,使用时我们需要提供代价函数和每个参数的求导。


7.5 简化的成本函数和梯度下降

首先这是我们对代价函数的最初的定义:


逻辑回归的代价函数

化简合并之后可得:

化简后的cost

根据这个函数,我们用梯度下降来找他的最小值时对应的参数。

    通过梯度下降,反复更新每个参数

求导后可得:


计算后可得:



    需要注意的是,尽管这个更新规则和我们在线性回归上梯度下降用的类似,但是线性回归和逻辑回归并不是一个算法。因为其hx定义不同:对于线性回归,hx为h𝜃(𝑥)=𝜃𝑇𝑋=𝜃0𝑥0 +𝜃1𝑥1 +𝜃2𝑥2+...+𝜃𝑛𝑥𝑛。而对于逻辑回归:hx=(1+e的-𝜃𝑇𝑋的次方)分之一

    因此,即使更新参数的规则看起来基本相同,但由于假设的定义发生了变化,所以逻辑 函数的梯度下降,跟线性回归的梯度下降实际上是两个完全不同的东西。

    当使用梯度下降法来实现逻辑回归时,我们有这些不同的参数𝜃,就是𝜃0 𝜃1 𝜃2 一直到𝜃𝑛,我们需要用这个表达式来更新这些参数。我们还可以使用 for 循环来更新这些参数值。

注意,我之前强调过,特征缩放的方法,也适用于逻辑回归。如果你的特征范围差距很大的话,那么应用特征缩放的方法,同样也可以让逻辑回归中,梯度下降收敛更快。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,490评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,581评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,830评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,957评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,974评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,754评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,464评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,357评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,847评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,995评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,137评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,819评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,482评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,023评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,149评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,409评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,086评论 2 355

推荐阅读更多精彩内容