人工智能00022 深度学习与图像识别书评22 神经网络基础04 向前传播

了解了神经网络的架构之后,我们会发现每个神经元都与其前后层的每个神经元相互连接,那么神经网络到底是如何从输入的数据经过一层一层的神经元,到达输出的呢?

我们会通过2个小例子来层层剖析神经网络是如何进行前向传播计算的。

神经网络前向传递过程的四个关键步骤具体说明如下。

1)输入层的每个节点,都需要与隐藏层的每个节点做点对点的计算,计算的方法是加权求和+激活函数。

2)利用隐藏层计算出的每个值,再使用相同的方法,与输出层进行计算(简单神经网络结构)。

3)隐藏层大量使用ReLU函数之前广泛使用Sigmoid作为激活函数,而输出层如果是二分类问题则一般使用Sigmoid函数;如果是多分类问题则一般使用Softmax作为激活函数。

4)起初输入层的数值将通过网络计算分别传播到隐藏层,再以相同的方式传播到输出层,最终的输出值将与样本值进行比较,计算出误差,这个过程称为前向传播。

我们来举例说明,输入节点为两个,分别是X1和X2,其中X1=0.3、X2=-0.7,真实值Y为0.1,我们可以看到输入层到隐藏层之间的神经元是相互连接的,想象一下,如果神经元过多,那么相互连接的链接将会非常的多,整个计算就会变得非常复杂,读者们可能会有非常多的设计思路来改善连接方式;

但是神经网络还是坚持了这种看似繁杂的设计架构,其主要原因是为了方便计算机的计算(矩阵运算),另一个原因是神经网络的学习过程将会慢慢弱化某些链接(即这些链接上的权重慢慢趋近于0)。

例子1 下面再按照之前的步骤手动计算一下。对输入层到隐藏层的节点进行加权求和,结果分别如下。

·节点1的值为X1*W1+X2*W3=0.3*0.2+(-0.7)*0.8=-0.5

·节点2的值为X1*W2+X2*W4=0.3*(-0.7)+(-0.7)*(-0.5)=0.14

接着对隐藏层的节点的值执行Sigmoid激活,结果分别如下。

最后对隐藏层的输出到输出节点进行加权求和: 0.378*0.3+0.535*0.5=0.381 Sigmoid代码如下:

  import numpy as np

def _sigmoid(in_data):

    return 1 / (1 + np.exp(-in_data))

print(_sigmoid(-0.5))

print(_sigmoid(0.14)) 

我们最后得到的Y的预测值为 0.381,与真实值0.1存在一定的差距,那么,这个时候就需要使用反向传播来使预测值更接近真实值了(不断优化迭代,更新权重)。

在进行反向传播的讲解之前,我们还是再来分析一下前向传播,看看目前的这个计算逻辑是否还有优化的空间。

之前的运算有点过于复杂,想象一下,如果层数比较多或者神经元比较多,那么通过上述这种方式来进行运算就非常耗时间了,所幸的是,有矩阵计算这样的方式来帮助我们快速运算,下面再来看一个稍微复杂一点的例子。

对于节点1来说,其是通过x1*w11+x2*w21+x3*w31得到的,对于节点2是通过x1*w12+x2*w22+x3*w32得到,以此类推。

如果结合矩阵运算知识,我们就可以写为如下这种形式:

矩阵运算更为简单,而且效果与我们手算的结果是一样的。

现在假设输入数据源是[0.9,0.1,0.8],顺便说一下,本例子只是一个简单的说明,里面的输入数据源以及权重都是无意义的,只是为了举例方便罢了。

另外,不要去纠结为何针对一个三分类使用的是Sigmoid激活函数,而不是使用Softmax,因为这里只是作为一个例子说明一下神经网络是如何进行前向传播计算的。

示例代码具体如下:

import numpy as np

def _sigmoid(in_data):

    return 1 / (1 + np.exp(-in_data))

#输入层

x = np.array([0.9,0.1,0.8])

#隐藏层:需要计算输入层到中间隐藏层每个节点的组合,中间隐藏层的每个节点都与输入层的每个节点相连,所以w1是一个3*3的矩阵

#因此每个节点都会得到输入信号的部分信息。


#第一个输入节点与中间隐藏层第一个节点之间的权重为w11=0.9,输入的第二个节点与隐藏层的第二节点之间的链接的权重为w22=0.8

w1 = np.array([[0.9,0.3,0.4],

              [0.2,0.8,0.2],

            [0.1,0.5,0.6]])

#因为输出层包含了3个节点,所以w2也是一个3*3的矩阵

w2 = np.array([

    [0.3,0.7,0.5],  [0.6,0.5,0.2],

    [0.8,0.1,0.9]

])

Xhidden = _sigmoid(w1.dot(x))

print(Xhidden)

Xoutput = w2.dot(Xhidden)

print(Xoutput)             

#最终输出的结果  下面再来考虑一个更复杂的例子,之前的例子中我们只考虑了权重,本例中我们来看下增加bias的情况。

本例的神经网络结构,增加bias 对于每一层的权重矩阵,又该如何确定其形状呢?

第一层的W1的形状取决于输入层,本例中为2,输出为3,所 以W1的形状为(2,3),以此类推,W2的形状为(3,2)、W3的形状为(2,2),bias的形状也比较容易确定,就是看输出层包含多少个神经元就是多少,比如第一层的bias就是(3,)。

具体代码如下: 

import numpy as np

def _sigmoid(in_data):

    return 1 / (1 + np.exp(-in_data))

def init_network():

    network={}

    network['W1']=np.array([[0.1,0.3,0.5],[0.2,0.4,0.6]])

    network['b1']=np.array([0.1,0.2,0.3])

    network['W2']=np.array([[0.1,0.4],[0.2,0.5],[0.3,0.6]])

    network['b2']=np.array([0.1,0.2])

    network['W3']=np.array([[0.1,0.3],[0.2,0.4]])

    network['b3']=np.array([0.1,0.2])

    return network

def forward(network,x):

    w1,w2,w3 = network['W1'],network['W2'],network['W3']

    b1,b2,b3 = network['b1'],network['b2'],network['b3']

    a1 = x.dot(w1) + b1

    z1 = _sigmoid(a1)

    a2 = z1.dot(w2) + b2

    z2 = _sigmoid(a2)

    a3 = z2.dot(w3) + b3

    y = a3

    return y

network = init_network()

x = np.array([1.0,0.5])

y = forward(network,x)

print(y)  输出结果为:[0.316827080.69627909]。

至此,神经网络的前向传播就介绍完了。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,558评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,002评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,036评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,024评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,144评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,255评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,295评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,068评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,478评论 1 305
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,789评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,965评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,649评论 4 336
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,267评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,982评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,223评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,800评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,847评论 2 351

推荐阅读更多精彩内容