(九)神经网络之BP网络

一. 算法描述

BP网络和感知机一样,是前馈神经网络的代表,不同在于BP网络是一种多层且复杂的神经网络。而BP算法是一种用于前馈多层网络的反向传播学习算法。怎么理解呢?其基本思想是,学习过程由信号的正向传播与误差的反向传播两个过程组成。正向传播时,样本从输入层传入,经隐含层逐层处理后,传向输出层。若输出层的实际输出与期望输出不符,则转向误差的反向传播阶段。误差的反向传播是将输出误差以某种形式通过隐层向输入层逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据。这种信号正向传播与误差反向传播的各层权值调整过程,是周而复始地进行。权值不断调整过程,也就是网络的学习训练过程。此过程一直进行到网络输出的误差减少到可以接受的程度,或进行到预先设定的学习次数为止。
正向传播算法,我们在前面已经介绍过,很简单,这里不再赘述了。所以本章的重点就是这个BP算法,也就是反向传播算法。

二. 如何理解BP算法

BP算法的核心思想是将误差从输出层反向传播回输入层,计算出每层的误差,然后根据误差来调整每层的权值。这里有人可能会问,直接在输出层计算代价,然后梯度下降不行吗?答案肯定是不行的,纵然梯度下降神通广大,但却不是万能的。梯度下降可以应对带有明确求导函数的情况,或者说可以应对那些可以求出误差的情况,比如逻辑回归(Logistic Regression),我们可以把它看做没有隐层的网络;但对于多隐层的神经网络,输出层可以直接求出误差来更新参数,但其中隐层的误差是不存在的,因此不能对它直接应用梯度下降,而是先将误差反向传播至隐层,然后再应用梯度下降,其中将误差从末层往前传递的过程需要链式法则(Chain Rule)的帮助,因此反向传播算法可以说是梯度下降在链式法则中的应用。

三. 详解BP算法

介绍BP算法之前,我们先规定几个符号



1. 链式求导

首先我们先进行一下向前传播
我们在输入层输入数据 x1 x2,则可以得到隐藏层的输入:

隐藏层的输入通过激活函数得到输出:
同理我们也可以得到输出层的输出:
得到输出之后,我们可以计算误差,这里使用平方法来计算误差(假设只有一个样本数据):
也就是:

现在要将误差反向传播
之前使用梯度下降法的时候,我们通过偏导数来获取梯度方向,进而更新参数,这里我们依然使用这个方法。想要更新权重,那么我们就可以对权重求偏导数。不同的是,由于现在是多层网络,我们要使用链式求导法则,将误差传递给隐藏层,这样才能逐层更新权重。举例来说,现在我们要更新cf之间的权重:

所以我们最终得到梯度方向:
我们再看一个例子,现在我们来更新ac之间的权值,由于c点的误差来源有2部分,所以要分开求和:

同理我们也可以求出这个表达式的结果。至此,我们可以使用链式求导法则来求出任何一个权值的梯度方向,进而更新权重。

2. 简化链式求导的计算

我们观察上面链式求导的过程,不难发现神经网络的层数越多,求导计算量越大,但是他们之间是有 重复计算的部分。我们观察下图的红色部分,是一样的,有木有,有木有?


为了简化计算,我们引入一个新名词,叫做误差,好吧这不是新名词,但是我们要给他一个 新的定义。一个神经元的误差,就是代价函数对该神经元输入的偏导数。其实就是我们红框框中的东西。

那用向量表示我们输出层的误差就是:
经典书籍《神经网络与深度学习》中的第一个公式浮出水面了:

那误差怎么传播呢?隐藏层的误差怎么求呢?根据误差的定义,我们来求隐藏层的误差,因为代价公式到达C点其实有2条路径,所以我们要对w与g分别求偏导数:

整理一下,求出结果:
我们把其他2个点的误差也求出来:
我们发现,如果把它向量表示出来,就得到了我们的第二个公式:

然后是公式三和四:

总结一下我们的公式:

四. BP神经网络学习的过程

前面我们介绍了BP算法,归根结底,BP算法只是在神经网络中求偏导数的快速算法。下面我们来总结一下BP神经网络的学习过程:

  1. 首先要选取一个合适的神经网络结构。
  2. [-1,1]间随机初始化各个权重
  3. 构造代价函数(注意:之前我们的代价公式是建立在只有一个样本的前提下的)
  4. 正向传播与反向传播求取梯度:
  5. 利用梯度下降法更新所有权重,然后重复第4,5步,直到代价函数收敛。

五. 关于网络结构选取的若干建议

  1. input层神经元个数由输入特征个数决定。
  2. output层神经元个数由输出的类别个数决定,分几类就有几个神经元。
  3. 推荐使用一个隐藏层,若使用多个隐藏层,建议每个隐藏层神经元个数相同。
    (理论上隐藏层神经元个数越多越好,神经元越多计算量越大)

(参考资料)
链接:https://www.jianshu.com/p/964345dddb70

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,509评论 6 504
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,806评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,875评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,441评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,488评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,365评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,190评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,062评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,500评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,706评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,834评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,559评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,167评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,779评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,912评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,958评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,779评论 2 354

推荐阅读更多精彩内容

  • 原文地址:http://www.cnblogs.com/subconscious/p/5058741.html 神...
    Albert陈凯阅读 5,447评论 0 48
  • 引言 机器学习栏目记录我在学习Machine Learning过程的一些心得笔记,涵盖线性回归、逻辑回归、Soft...
    hfk阅读 4,359评论 4 18
  • 傍晚在抱石公园遇到一位初中同学,我们都陪着女儿表演跳舞,同学的女儿跟我女儿在同一个舞蹈学校。闲聊中得知同学...
    一本经典的书阅读 126评论 0 0
  • 如期而至的2017年6月,如期而至的毕业季,这一次,到了我用心去感受的时候了。 记忆似乎还停留在无休止的修改毕业论...
    谷悦GUGU阅读 412评论 6 6
  • 每一段时光, 都有一个难以忘怀的故事。 每一段爱情, 都是一种至死方休的回忆。 每一段经历, 都有一片万里河山的灿...
    阿俊xi阅读 177评论 0 0