神经网络基础篇-1-神经网络的计算过程

1.神经网络的主要功能

1)回归(Regression)

回归也可以叫做拟合(Fitting),是给出x值输出y值的过程,并且让y值与样本数据形成的曲线的距离尽量小,可以理解为是对样本数据的一种骨架式的抽象。

单层的神经网络能够模拟一条二维平面上的直线,从而可以完成线性分割任务。而理论证明,两层神经网络可以无限逼近任意连续函数。

  • 一元线性回归

    • 由大体上有线性关系的一个自变量和一个因变量组成。

      • X是自变量(样本特征值),Y 是因变量(样本标签值),ε 是随机误差,a 和 b 是参数,在线性回归模型中,a,b 是我们要通过算法学习出来的。

2)分类(Classification)

分类是通过神经网络训练出来的分界线,把两类或多类样本分开。可以理解为是对两类或多类样本数据的边界的抽象。

2.神经网络的训练过程

1)初始化权重矩阵

以单层神经网络模型为例,有 m 个输入,有 n 个输出。在神经网络中,b 到每个神经元的权值来表示实际的偏移值(把偏移值看做是神经元的一个输入)。

image
  • (x1,x2,x3) 是一个样本数据的三个特征值

  • (w11,w21,w31) 是 (x1,x2,x3) 到 n1 的权重

  • (w12,w22,w32) 是 (x1,x2,x3) 到 n2 的权重

  • b1 是 n1 的偏移

  • b2 是 n2 的偏移

2)循环训练

  • 抽取训练样本x和对应目标y组成的数据批量。

  • 在x上运行网络(即正向传播),得到预测值y_pred。

  • 计算网络在这批数据上的损失,用于衡量y_pred与y之间的距离。

    • 通过损失函数进行计算
  • 更新网络的所有权重,使网络在这批数据的损失略微下降。

    • 方法1:保持网络中其他权重不变,只考虑某个参数,让其尝试不同取值。(对网络中的所有系数都重复这一过程)

      • 非常低效。
    • 方法2:利用网络中所有运算都可微,计算损失相对于每一个网络系数梯度(即反向传播),然后向梯度的反方向改变系数,从而降低损失。

      • 可微:一个函数在其定义域中所有点都存在导数,则它是可微的。

      • 导数:函数f在p点的斜率。

3)梯度下降法则

https://www.cnblogs.com/dztgc/archive/2013/05/02/3050315.html

“梯度下降”包含了两层含义:

  1. 梯度:函数当前位置的最快上升点;

  2. 下降:与导数相反的方向,用数学语言描述就是那个减号,亦即与上升相反的方向运动,就是下降。

  • 假设训练一个线性单元,它的输出o如下:

    image
  • 损失E相对于向量w可表示为:

    • 其中D是训练样例集合,td 是训练样例d的目标输出,od是线性单元对训练样例d的输出,E(w)是目标输出td和线性单元输出od的差异的平方在所有的训练样例上求和后的一半。
  • 梯度(gradient)是指:损失函数E相对向量w的的每个分量的导数,计作ΔE(w),指示了最陡峭的下降方向。

  • 梯度下降法则:即让损失函数E向下降的方向移动可以表示为
    image

    其中:

    ,η是一个正的常数叫做学习速率,它决定梯度下降搜索中的步长。

    • 对于每个分量wi可以表示为:

      ,其中
  • 因此得到梯度下降权值更新法则:
  • 训练线性单元的梯度下降算法步骤:

    • 选取一个初始的随机权向量;

    • 应用线性单元到所有的训练样例;

    • 根据梯度下降权值更新法则计算每个权值的Δwi;

    • 通过加上Δwi来更新每个权值,然后重复这个过程。

4)随机梯度下降

  • 应用梯度下降的主要实践问题:

    • 有时收敛过程可能非常慢;

    • 如果在误差曲面上有多个局部极小值,那么不能保证这个过程会找到全局最小值。

    常见的梯度下降变体被称为增量梯度下降算法(incremental gradient descent)或者随机梯度下降(stochastic gradient descent)。

  • 随机梯度下降的思想是根据每个单独样例的误差增量计算权值更新,得到近似的梯度下降搜索。

    • ,td和od是训练样例d的目标输出值和单元输出值。

    • ,t、o和xi分别是目标值、单元输出和第i个训练样例的输入。

  • 关键区别:

    • 标准的梯度下降是在权值更新前对所有的样例汇总误差,而随机梯度下降的权值是通过考查每个训练样例来更新的。

    • 在标准的梯度下降中,权值更新的每一步对多个样例求和,这需要大量的计算。

    • 如果

      有多个局部极小值,随机的梯度下降有时可能避免陷入这些局部极小值中,因为它使用不同的
      而不是
      来引导搜索。

5)反向传播

主要思想:

  • 数据集输入神经网络,经过隐藏层,最终达到输出层。该过程是前向传播过程。

  • 计算输出结果与真实结果存在误差,因此计算出误差,并将该误差从输出层向隐藏层反向传播,直至传播到输入层。

  • 在反向传播的过程中,根据误差调整各种参数的值;不断迭代上述过程,直至收敛。

反向传播求偏导

偏导求解过程可以应用链式法则。假设有一个函数:z = x dot y,其中 x = 2w + 3b,y = 2b + 1。

z对w求偏导

  • 假设当前参数w=3,b=4,可得:

    而z的变化相对于w的变化可以表示为:

    假设z的目标值是150,当前值是162,可以求得delta w的值如下:

z对b求偏导

  • 而z的变化相对于b的变化可以表示为:

    假设z的目标值是150,当前值是162,可以求得w需要变化的值如下:

由于网络中的参数比较多,一个参数w改变一次值,并不能让z直接达到目标值,因此需要对每个参数多次迭代训练。

# double variable new: w, b -----
w=3.000000,b=4.000000,z=162.000000,delta_z=12.000000
factor_b=63.000000, factor_w=18.000000, delta_b=0.095238, delta_w=0.333333
w=2.666667,b=3.904762,z=150.181406,delta_z=0.181406
factor_b=60.523810, factor_w=17.619048, delta_b=0.001499, delta_w=0.005148
w=2.661519,b=3.903263,z=150.000044,delta_z=0.000044
factor_b=60.485234, factor_w=17.613053, delta_b=0.000000, delta_w=0.000001
w=2.661517,b=3.903263,z=150.000000,delta_z=0.000000
done!
final b=3.903263
final w=2.661517
  • 让批量数据的损失最小,就是求损失函数极限的过程,而损失函数的极限点,就是它的导数为0的点。
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,417评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,921评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,850评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,945评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,069评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,188评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,239评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,994评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,409评论 1 304
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,735评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,898评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,578评论 4 336
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,205评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,916评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,156评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,722评论 2 363
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,781评论 2 351

推荐阅读更多精彩内容