神经网络和深度学习-第四周-吴恩达 Deep Learning Specialization 学习笔记

深度神经网络的符号表示

随着网络的层次的增加,用精炼且统一的符号来确定的表示网络的不同的层以及各个层之间独立单元的情况就变得十分重要,正如在矩阵中我们用 aij 表示第 i 行第 j 列元素一样。

在实际的神经网络构建中,很难一开始就清楚的需要多少层、每个层级之间的单元数量以及选择哪一种激活函数,这些都要经过多次的训练和调整来确定,也被称为“调参”。

以下面这个神经网络为例,相关约定如下:

3 hidden layers neural network
  • 由于在描述神经网络的层级的时候,我们会去掉输入层,所以上图是一个 4 层的神经网络,3 个隐藏层,1 个输出层。层数用大写的 L 表示,即 L = 4,输入层可以被称为 0 层,后续每一个新的层都依次递增

  • 每一层的单元的数量则可以简单的根据其在图中的圆形数量来确定,并用 n[ l ] 表示,对应图中 n[1] = 5, n[2] = 5, n[3] = 3n[4] = 1,输入特征的数量可以用 n[0] = nx = 3 来表示

  • 每一层的激活函数可以用 a[ l ] 来表示,即 a[ l ] = g[ l ](z[ l ]) , 而相应的 z[ l ] 的参数则可以用 w[ l ]b[ l ] 来表示

  • 特别地,输入特征 x 可以看作是输入层的激活因素,因此可以用 a[ 0 ] 来表示,而输出 ŷ 可以看作是输出层的激活因素,所以用 a[ L ] 来表示。这一处理的好处是后续可以通过将 a[ 0 ] 代入第一层的线性方程来使得各个层之间的线性方程可以用同一个公式表示: z[ l ] = w[ l ]a[ l-1 ] + b[ l ]

神经网络中的前向和后向传播

这一部分 Andrew 讲的很详细,可以考虑把这几个公式的推导过程尝试几遍,仔细体会一下。

  • 前向传播
Forward propagation
  • 后向传播
Backward propagation

神经网络中矩阵的维数确认

在神经网络计算中,为了避免出现低级的矩阵维度的错误,Andrew 讲到自己在做计算的时候都会单独拿一张纸出来逐个确认各个矩阵的维数是否正确。一个最基本的检查项是矩阵乘法中,如矩阵 A 和矩阵 B 相乘, 则首先一定要满足的是 A 的列的维数等于 B 的行的维数,即 [m x n] x [n x l] = [m x l],并且我个人觉得在这个操作过程中会更加清晰直观的理解神经网络的实际运算过程,而不再将其看作是一个抽象的符号运算过程。

经过课程中的推导可知,单个样本时各个常用参数的维度为:

  • w[ l ] 的维度:( n[ l ] ,n[ l -1 ]
  • b[ l ] 的维度:( n[ l ] ,1
  • dw[ l ] 的维度:( n[ l ] ,n[ l -1 ]
  • db[ l ] 的维度:( n[ l ] ,1
  • z[ l ]a[ l ] 的维度:( n[ l ] ,1

m 个训练样本时 :

  • Z[ l ]A[ l ] 的维度是(n[ l ] ,m
  • dZ[ l ]dA[ l ] 的维度是( n[ l ] ,m

为什么采用深层次的神经网络

采用多个层级的神经网络的原因是可以将问题分解:第一层解决基本元素的组成问题,如人脸识别问题中的一个很小的区域的图像的线条朝向及位置;第二层在第一层的基础上扩大观察的范围,并将第一层得到的结果组合成可能的面部各个器官的形状;第三层再在第二层的基础上扩大观察范围,对于合成的不同面貌的人脸进行分辨。以此类推,深层神经网络之所以通常情况下越“深”处理能力越强就是源于此。注意这里的三层只是为了说明问题,而不是真实应用中人脸识别只需要三层神经网络就可以解决。

另外很多人也常用电路设计原理来解释深度神经网络“深”的意义:

There are functions you can compute with a "small" L-layer deep neural network that shallower networks require exponentially more hidden unites to compute.

上面这句话里的 small 指代的是每一层的单元的数量,更直观的理解就是说当采用更多层的神经网络来描述复杂的函数关系时,可以减少每一层的计算单元的数量。但由于 90% 的人对于电路设计中的“门”的概念都是陌生的,因此这里没有必要非要去理解 Andrew 举的这个例子,包括他本人也觉得这个解释并不利于大多数人能够对于深层的优势进行直观的理解。

最后 Andrew 也讲到大家把“多层次神经网络”改成“深度神经网络”是因为 deep 这个词本身就具有一定的宣传效果,也成功吸引到了更多的关注,就像很多人逢人就提 Big Data, 别管我懂不懂,听起来就能吓住你。

参数和超参数

为了使得深度神经网络的训练更加有效的工作,在寻求参数的过程中要用到一些超参数(Hyperparameter),之所以称它们为超参数是因为这些参数的选择在较大程度上会决定神经网络的学习速度,以及最终获得的参数的值和质量。典型的超参数有以下几个:

  • 学习速率(learning rate) α
  • 迭代次数(number of iterations)
  • 神经网络的层数 L
  • 每一层的单元的数量 n[ l ]
  • 激活函数

这些参数实际上很难在一开始的时候就知道如何设置更加合理,所以需要通过不断的调整超参数并获得迭代次数和成本函数之间的关系,最终确定选定某一组超参数,这一过程就是常说的“调参”。同时,即便是针对同一个应用场景,随着时间的推移,计算能力、数据数量以及网络结构都会发生不同程度的变化,因此之前选定的超参数也可能并不总是最佳的选择,需要定期的考虑尝试新的参数。

神经网络和大脑的关系

简单说就是并没有什么关系,尽管 sigmoid 函数的激活可以简单的类比一个神经元接受不同神经元的递质并最终激活将信号传递到下一个神经元的过程,但实际上现在人们对于人类大脑中的单个神经元的工作机制仍然不是特别了解,也并没有清楚揭示人类大脑的认知和学习过程。

Human neuron

之所以经常看到这样的类比是历史上计算机神经网络的研究确实是希望可以模拟人脑,但今天仍然沿用这个说法是因为它可以使非专业的人士也能有一个具体的实例来大致的了解计算机神经网络想要实现的功能,使得其更加亲民。如果你已经学习到这里,那么应该可以更清楚的知道(监督学习中的)深度神经网络实际上提供了一个可以描述复杂的函数关系的能力,使得我们给定的输入得到预期的输出。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,686评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,668评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,160评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,736评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,847评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,043评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,129评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,872评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,318评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,645评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,777评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,470评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,126评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,861评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,095评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,589评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,687评论 2 351

推荐阅读更多精彩内容