《Neural Network and Deep Learning》第一章笔记

使用神经网络识别手写数字

感知器(Perceptrons)

感知器是人工神经网络的第一个里程碑,是一种决策机制

感知器的工作方式:接受若干个二进制输入x1, x2...,产生一个二进制输出

具体细节:
引入权重w1,w2...表示相应输入对于输出的重要性,分配权重后的总和和指定的阈值进行比较,得到输出0或1

感知器偏置(b)的由来:
将阈值移到不等式的另一边,使得b=-threshold代替

感知器=>逻辑运算(与、或、非门)
感知器=>阶跃函数


台大林轩田课程上对于感知器的解释.png

S型神经元(Sigmoid neurons)

问题描述:任何权重(或偏置)中的微小改变可以引起一个输出的微小改变,但是网络中单个感知器上一个权重或偏置的微小改动有时候会引起那个感知器的输出完全翻转。
解决措施:引入S型神经元
特点:任何权重(或偏置)中的微小改变可以引起一个输出的微小改变,而不是巨大变化=>平滑的感知器


微小变化.png

神经网络的架构(The architecture of neural networks)

关于MLP:由于历史的原因,尽管是一个多层的神经网络神经元由S型神经元而不是感知器构成,这种多层网络有时被称为多层感知器或者MLP。

前馈神经网络:以上一层的输出作为下一层的输入,网络中没有回路
递归神经网络:具有休眠前会在一段有限的时间内保持激活状态的神经元,这种激活状态可以刺激其它神经元,使其随后被激活并同样保持一段有限的时间,随着时间的推移,得到一个级联的神经元激活系统。

一个简单的分类手写数字的网络(A simple network to classify handwritten digits)

手写数字的识别问题有两个方面的问题:
1、一系列数字的分割
2、单个数字的识别
这里主要解决第二个问题


网络结构.png

这里有个问题,为什么用10个输出神经元而不是4个神经元,因为4个输出神经元每一个当作一个二进位值,结果取决于它的输出更靠近0还是1 ,可以表示16中可能的输出。
经验主义:10个的输出比4个好。

使用梯度下降算法进行学习(Learning with gradient descent)

希望有一个算法,能够帮助我们找到权重w和偏置b,以至于网络的输出y(x)能够拟合所有的输入x,为了量化如何实现这个目标,定义代价函数C(w, b)。

代价函数中,比较真实y和预测y,举个例子:C(w, b) = ypre - y,如果训练算法完美的话,C = 0,换句话说,我们的目的是最小化权重和偏置的代价函数C(w, b),为了实现这个目的,使用梯度下降算法。

抛开深度学习中一系列的细节,目前的问题就是有一个多元函数C(v),希望使用梯度下降的技术使得C(v)最小化
C(v)
v = v1, v2, . . .

想象:将函数想象成一个山谷,有一个球体会从山谷的斜坡滚落,模拟球体滚落到谷底的运动

在v1和v2方向分别将球体移动一个很小的量,即∆v1和∆v2,C的变化为


∆C.png

希望的结果是∆C为负,这样就表明球体是在往下滚落

这个时候定义一个C的梯度,表示其为偏导数的向量,用∇C 来表示梯度向量


∇C .png

那么C的微小变化为: ∆C ≈ ∇C · ∆v

因为想要∆C为负,所以可以选取 ∆v = -a∇C(a为一个很小的正数,称为学习速率),那么
∆C ≈ −a·∇C·∇C = −a∥∇C∥2
这样子保证了∆C<=0

也就是说通过计算∆v,来移动球体的位置v
v → v′ = v−a∇C

总结一下,
1.梯度下降算法工作的方式就是重复计算梯度 ∇C,然后沿着相反的方向移动,沿着山谷“滚落”。
2.梯度下降法是一种在C下降最快的方向上做微小变化的方法

回到神经网络中,可以利用梯度下降算法去寻找能使得方程 C的代价取得最小值的权重w和偏置b
wk → wk′ =wk − a∂C/∂wk
bl → b′l =bl − a∂C/∂bl
通过重复应用这一更新规则我们就能“让球体滚下山”,并且有望能找到代价函数的最小值。 换句话说,这是一个能让神经网络学习的规则。

实践中,需要为每个训练输入x单独的计算梯度∇Cx,然后求平均值,由于数据庞大,花费时间长
解决方案:SGD,通过随机选取小量训练输入样本来计算 ∇Cx,进而估算梯度∇C

SGD的极端版本:mini_bath_size设置为1,针对每一个样本都进行一次w,b的更新,这样的过程叫做在线学习(online)

实现我们的网络来分类数字(Implementing our network to classify digits)

使用少于100行的代码来实现一个数字分类器

复杂的算法 ≤ 简单的学习算法 + 好的训练数据

迈向深度学习(Toward deep learning)

神经网络的直观理解:将一个问题划分为多个子问题

如果我们能够使用神经网络来解决这些子问题,那么我们也许可以通过将这些解决子问题的网络结合起来,构成一个人脸检测的神经网络

确定一幅图像是否显示有人脸:


问题划分.png

子问题划分.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,240评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,328评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,182评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,121评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,135评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,093评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,013评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,854评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,295评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,513评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,678评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,398评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,989评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,636评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,801评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,657评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,558评论 2 352

推荐阅读更多精彩内容