学习笔记 — 神经网络和深度学习(ng)_第二周


简书不支持数学公式,文章中有大量截图。更好的阅读体验,请点击:nbviewer


在第一课第二周的的课程中,ng以识别图片中是否有猫为例,简单介绍了一下二分类(Binary Classification)问题,以此引出对数几率回归算法(Logistic Regression)。Logistic Regression 是一种常用的二分类问题求解算法,通常用于处理监督学习(supervised learning)相关问题。在讲解LR(Logistic Regression)算法的过程中,ng穿插着介绍了梯度下降(Gradient Descent)、导数(derivatives)、计算图(computation graph)和向量化(Vectorization)。此外,ng还特意介绍了Python中的广播(Boradcasting)机制,一种有效提高计算效率的方法,也可以认为是向量化在python中的实现。

在这份笔记中,我将先记录导数(derivatives)、计算图(computation graph)、向量化(Vectorization)等基本概念,然后记录梯度下降(Gradient Descent)相关知识,最后记录Logistic Regression算法及案例 — 识别图片中是否有猫。


名词约定


名词 含义
ng Andrew Ng, 吴恩达老师
数据集 所有个案构成的集合
样本 数据集中的某一个案
特征 样本中的变量

1.1 - 导数(derivative)基础


直观上理解,导数的意义是计算函数 $f(x)$ 在 $x_0$ 处的斜率,即$y=f(x)$的变化速率。
导数的定义如下:


基本求导法则:


函数的和、差、积、商的求导法则:


复合函数的求导法则:

注:以上图片来自于同济大学编写的《高等数学(第六版)》。


1.2 - 计算图(computation graph)


computatiom graph 是用有向箭头表示数据流动方向、方框表示计算内容的计算流程图,能够很好的描述算法的整个计算过程,对于理解算法很有帮助。ng给出的一个案例如下:


1.3 - 向量化(vectorization)


向量化是提高计算效率的有效方法,其核心思想是将需要循环的累加、累乘等计算任务,通过合适的数据转换(如:转置、广播、堆叠等),变成矩阵或向量计算任务。

import numpy as np

x1 = np.linspace(1, 100, 10000)
x2 = np.linspace(1, 10, 10000)

# 假设要计算想x1与x2的乘积和
# 使用循环进行计算
%timeit -qo sum([x1[i]*x2[i] for i in range(x1.shape[0])])
<TimeitResult : 100 loops, best of 3: 5.26 ms per loop>
# 使用向量化方法进行计算
%timeit -qo np.dot(x1, x2)
<TimeitResult : 100000 loops, best of 3: 4.19 µs per loop>

比较以上两个计算耗时,可以发现:向量化计算x1与x2的乘积和比循环的方法块1000多倍!!!


2.1 - 梯度下降法(Gradient Descent)


梯度下降法(Gradient Descent)是一个最优化算法,通常也称为最速下降法,它将负梯度方向作为搜索方向,越接近最优化目标,步长越小,前进越慢,当步长小于一个给定的值或迭代次数达到设定的上限,迭代停止。

如果你想了解更多关于梯度下降法的知识,请点击 wiki - Gradient descent


2.2 - 随机梯度下降法(Stochastic Gradient Descent)


SGD的优势在于,每一次迭代中随机选取一个样本计算梯度,而不是使用全部样本。

SGD不需要记录哪些样例已经在前面的迭代过程中被访问过,有时候随机梯度下降能够直接优化期望风险,因为样例可能是随机从真正的分布中选取的。

如果你想了解更多关于随机梯度下降法的知识,请点击 wiki - Stochastic Gradient descent


3 - 对数几率回归(Logistic Regression)


事实上,Logistic Regression是一个简单的神经网络。由于 LR 本质上是一个线性回归模型,因此 LR 主要适用于线性可分(linearly separable)的二分类问题,也可以应用于线性可分的多分类问题(案例)。

ng在讲解Logistic Regression算法时,以图像中是否有猫这个经典的二分类问题为例,将整个算法流程做了介绍,并在作业中引导学习者实现了这一算法。

使用训练好的LR模型判断图片中是否有猫的过程如下图:


3.1 - 符号约定



3.2 - 基本概念


  1. Sigmoid函数
  2. 损失函数(loss function)
  3. 成本函数(cost function)

3.2.1 - Sigmoid函数


sigmoid函数是一个非线性函数,在机器学习和深度学习中都有应用,有时也称作对数几率函数(logistic function)。


sigmoid函数及其导数的Python实现如下:

import numpy as np
%matplotlib inline

def sigmoid(x):
    """
    Compute the sigmoid of x

    Arguments:
    x -- A scalar or numpy array of any size

    Return:
    s -- sigmoid(x)
    """  
    s = 1.0 / (1.0 + np.exp(-x)) 
    return s


def sigmoid_derivative(x):
    """
    Compute the derivative of the sigmoid function with respect to its input x.
    
    Arguments:
    x -- A scalar or numpy array

    Return:
    ds -- Your computed gradient.
    """
    s = sigmoid(x)
    ds = s * (1 - s)    
    return ds
import matplotlib.pyplot as plt

x = np.linspace(-10, 10, 10000)
y_sigmoid = sigmoid(x)

plt.figure(figsize=(8,6))
plt.plot(x, y_sigmoid)

3.2.2 - 损失函数(loss function)



3.2.3 - 成本函数(cost function)



3.3 - LR模型训练过程



3.3.1 - 初始化参数



3.3.2 - 计算当前参数对应的cost(成本)和gradient(梯度)



3.3.3 使用梯度下降法更新参数



满足以下任一条件,迭代停止:

  1. 迭代次数超过num_iterations
  2. 参数更新步长(梯度)小于一个给定的值

3.3.4 输出训练好的参数,得到LR模型


使用梯度下降法更新参数完成之后,可以得到最终的 W和 b,即LR模型确定。接下来,就可以使用这个模型去进行新样本的预测了。


其他资源


  1. broadcasting - numpy
  2. Coursera吴恩达《神经网络与深度学习》课程笔记(2)-- 神经网络基础之逻辑回归
  3. 吴恩达Coursera Deep Learning学习笔记 1 (下)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 221,198评论 6 514
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,334评论 3 398
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 167,643评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,495评论 1 296
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,502评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,156评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,743评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,659评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,200评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,282评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,424评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,107评论 5 349
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,789评论 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,264评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,390评论 1 271
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,798评论 3 376
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,435评论 2 359

推荐阅读更多精彩内容