神经网络和深度学习(吴恩达) 第二周课程提炼

    本系列笔记旨在记录自己的学习过程,能够及时回顾整理学过的东西,有助于加深理解和记忆,方便今后回看。学这个课程的同时,也在看《机器学习》(周志华),所以会将书和视频的内容结合来看,综合学习。

本篇主要是第二周课程中讲到的:二分分类Logistic回归损失函数梯度下降向量化

二分分类:

简单理解就是输出的结果是两个离散的值,就像课程中举的例子:通过输入一张图片的信息,经过一系列的计算,输出一个离散Y值,比如Y=1时,表示图片中含猫,Y=0时即没有猫。

Logistic回归: 

很多人将这个翻译成逻辑回归,而在《机器学习》中,作者认为应该更为准确的叫对数几率回归,这里不对这两个翻译做过多的纠缠,知道就好。我们的重点是理解这个概念。

Logistic回归实际是进行上面说的二分分类的具体方法,可以这样理解:线性回归函数y = wx+b的输出范围为(−∞,+∞),而二分分类的结果范围为(0,1),用正经的话说就是需要一个函数将区间(−∞,+∞)映射到区间(0,1),也可以通俗点这样理解:需要对线性函数做“整形”手术,而“手术刀”即为Sigmoid()函数,“整形”过程为Sigmoid(y)。下面给出Sigmoid(x)的图像,可以很好的完成该“整形手术”。

sigmoid(x)
sigmoid(x)图像


损失函数:

损失函数其实有很多,例如容易想到的平方损失函数,但它是一个非凸的函数,这样在后面利用梯度下降优化参数时,得到的仅是局部最优解,并不是全局的最优解。

非凸函数

所以在Logistic回归中,我们使用的是对数损失函数:

这是一个凸函数,可以得到全局最优解,那么怎么理解这个函数呢?可以这样想2个例子:

①当y = 0时,L(y^,y)=−log(1−y^),要使损失函数尽可能的小,即要log(1−y^)尽可能大,所以要y^尽可能小,而y^的取值区间为(0,1),故y^ = 0.

②当y = 1时,L(y^,y)=−logy^,要使损失函数尽可能小,即要logy^尽可能大,所以y^ = 1.

所以通过使损失函数L(y^,y)小,可以得到正确的预测值y^。

梯度下降:

    Gradient Descent Optimization(梯度下降)是神经网络训练中最常用的优化算法。首先要明白梯度是一个向量,是向量就代表着方向,梯度的方向就是函数f增长最快的方向,梯度的反方向即函数f下降最快的方向。比如一元函数的梯度就是y'(y对x的导数),二元函数的梯度就是(f'x,f'y)(函数f对x,y的偏导),以此可以类推到更多元。这里给出一元二元的图像,能够有更直观的理解。

一元函数
二元函数

那么在Logistic回归中,梯度下降算法是用来不断优化参数w,b的。

首先进行正向传播,得到预测结果a,从而计算出损失函数L(a, y)。接下里反向传播,通过求出的dw,db不断用w = w - αdw,b = b - αdb来更新参数w、b的值(α为学习率),当损失函数降到最小时,参数w、b的值也确定下来,训练也就完成。

向量化:

向量化在神经网络中是非常非常重要的,课程中也花了大篇幅来解释为什么要向量化,我这里就不详细阐述。只需知道,①向量化后计算速度更快(for循环是线性运算,而向量化后可并行计算,速度不是一个数量级的)②编码更简单(矩阵的点乘直接用numpy库中的一行语句就能完成)


这周的课后习题是完成一个简单的神经网络,判断输入的图片中是否有猫,是理论上升到实践的一个很好练手。

简单神经网络

网易云课堂上只有视频课,课后习题在github上有。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,254评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,875评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,682评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,896评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,015评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,152评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,208评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,962评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,388评论 1 304
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,700评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,867评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,551评论 4 335
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,186评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,901评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,142评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,689评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,757评论 2 351

推荐阅读更多精彩内容