2020机器学习正向传播和反向传播

machine_learning.jpg

感谢李宏毅老师的机器学习,部分内容参考了李宏毅老师的讲义

今天我们来说一说正向传播和反向传播,这里感谢李宏毅老师讲义,让我受益匪浅,但是我这里并不是简单将李老师课程重复,而是加入自己认识,更重要的是我们通过 code 实现这些做法,帮助你更好理解反向传播。

正向传播和反向传播

这里有传播,那么我们说传播什么以及传播方式。这里传播的是导数,也就是找到我们参数对最终的输出的影响程度,对输出影响也就是说明参数对损失函数影响程度。根据求导方式一种正向传播和反向传播。那么我们为什么要做这件事呢?当然即使不了解反向传播也是完全可以做深度学习项目,因为现在流行框架 tensorflow 和 mxnet 已经将这些工作都封装好了,我们不了解这些一样可以设计好的模型。就是我们不知道1+1为什么等于 2 一样也是可以计算 1 + 1 = 2。定义好损失函数我们就是要做到损失函数梯度为零,在线性回归和logistic 回归,我们模型比较简单可能是一个线性方程或者是一个简单复合函数。对于这些模型函数求导很简单。

链式求导

我们需要复习一下求导,

第一种情况

y = g(x) \, z = h(y)
\Delta x \rightarrow \Delta y \rightarrow \Delta z
\frac{dz}{dx} = \frac{dz}{dy} \frac{dy}{dx}
第一种情况是复合函数求导,在复合函数求导方式如上,我这里就不赘述了。

第二种情况

\frac{dz}{dx} = \frac{dz}{dy} \frac{dy}{dx}
x=g(s)\, y=h(s)\, z = k(x,y)
\frac{dz}{ds} =\frac{dz}{dx} \frac{dx}{ds} + \frac{dz}{dy} \frac{dy}{ds}
第二种情况是x 通过两个途径来影响最终 z

在神经网络中,最终的损失函数是多个样本损失函数的集合,我们看一看 z 经过一系列运算得到 y 然后 y 用于计算损失函数,今天要看 z 的变化对最后的损失函数有多大影响。
而在在神经网中这件事就变得复杂多了,我们看一看损失函数是每一个样本经过神经网络的损失函数集合这个应该不难理解。
<img src="images/bg_01.png" width="20%"/>
L(\theta) = \sum_{i=1}^N l_{i}(\theta)
z \rightarrow y \rightarrow l(\theta)

bg_02.png
bg_03.png

\begin{cases} \frac{\partial z}{\partial w_1} \Rightarrow \frac{\partial z}{\partial w_1} = x_1 \\ \frac{\partial z}{\partial w_2} \Rightarrow \frac{\partial z}{\partial w_2} = x_2 \end{cases}
这个求导并不难,每一层线性函数 w 对于 z 求导就是该层神经元的输入。

<img src="images/bg_05.png" width="50%"/>
接下来就是经过激活函数,进入下一层。根据你选择激活函数就很好求导\sigma^{\prime} \frac{\partial l}{\partial z} = \frac{\partial a}{\partial z} \frac{\partial l}{\partial a} = \sigma^{\prime}\frac{\partial l}{\partial a}$$

bg_06.png
ndd_05.png

\begin{cases} z^{\prime} = a w_3 + b \Rightarrow \frac{\partial z^{\prime}}{\partial a} = w_3 \\ z^{\prime \prime} = a w_4 + b \Rightarrow \frac{\partial z^{\prime \prime}}{\partial a} = w_4 \\ \end{cases}
我们来读解一下下面代码,我们是不是有点数据,如果我们换一个角度来看,假设\frac{\partial l}{\partial z^{\prime}}\frac{\partial l}{\partial z^{\prime \prime}} 是已知那么,从右向左看这个不及时,值得注意区别这里\sigma^{\prime}(z) 是线性的。

bg_09.png

有时候我们这件事换个角度

bg_07.png
bg_10.png

我们换一个角度来,从输出反向神经网络来看,可以将\frac{\partial l}{\partial z^{\prime}}\frac{\partial l}{\partial z^{\prime \prime}} 看成输入,然后这里激活函数\sigma^{\prime}(z)是线性放大器。所以这件事我们反过来考虑就简单。

bg_11.png
bg_12.png

其实这里感觉是有点动态规划意思,我们参数求导这件事有点我们分两步做,先做正向传播计算\frac{\partial z}{\partial w},然后通过反向传播求出\frac{\partial l}{\partial z},\frac{\partial z}{\partial w} \times \frac{\partial l}{\partial z} = \frac{\partial l}{\partial w}

在假期,我们应该合理安排作息时间,玩时间和学习时间适当调节,不然就是没有办法在新学期取得好成绩。这里数据有两个维度[2,9] 分别代表每天玩的时间和学习时间。y 表示在新学期取得成绩。

study.jpg
X = np.array(([2,9],[1,5],[3,6]),dtype=float)
y = np.array(([92],[86],[89]),dtype=float)

数据均值化

# 用每列最大值除以每一个值
X = X/np.amax(X,axis=0)
# 
y = y/100 

print(X)
print(y)
[[0.66666667 1.        ]
 [0.33333333 0.55555556]
 [1.         0.66666667]]
[[0.92]
 [0.86]
 [0.89]]
nn_diagram_1.png
class NeuralNetwork(object):
    def __init__(self):
        # 定义参数
        self.input_size = 2
        self.output_size = 1
        self.hidden_size = 3
        
        # weights
        self.W1 = np.random.randn(self.input_size,self.hidden_size) #(3,2)
        self.W2 = np.random.randn(self.hidden_size,self.output_size) #(3,1)
    def feed_forward(self,X):
        # 数据在神经网络前向传播
        # 隐藏层       
        self.z = np.dot(X,self.W1)
        # 激活函数才用 sigmoid        
        self.z2 = self.sigmoid(self.z)
        # 隐藏层输出(z2) 输出层(3x1) 进行点积,进行 sigmoid 激活函数处理         
        self.z3 = np.dot(self.z2,self.W2)
        output = self.sigmoid(self.z3)
        return output
    
    # sigmoid 函数 dreiv 表示是否求导,False 表示前向,True 表示反向求导    
    def sigmoid(self,s,deriv=False):
        if(deriv == True):
            return s * (1 - s)
        return 1/(1 + np.exp(-s))
        
    def backward(self,X,y,output):
        #在神经网中反向传播
        # 计算损失函数值         
        self.output_error = y - output
        self.output_delta = self.output_error * self.sigmoid(output,deriv=True)
        # 然后 z2_error 来表示隐藏层中的 weights 对 output error 影响程度        
        self.z2_error = self.output_delta.dot(self.W2.T)
        # applying derivative of sigmoid to z2 error         
        self.z2_delta = self.z2_error * self.sigmoid(self.z2,deriv=True)
        # 调节 z2_delta 来调节 (输入层 -> 隐藏层) 的 weights         
        self.W1 += X.T.dot(self.z2_delta)
        # 调节(隐藏层 -> 输出层) weights         
        self.W2 += self.z2.T.dot(self.output_delta)
        
    def train(self,X,y):
        #训练         
        output = self.feed_forward(X)
        self.backward(X,y,output)
        

算函数损失值,

# 定义神经网络        
NN = NeuralNetwork()

for i in range(1000):
    NN.train(X,y)
print("Input: " + str(X))
print("Actual Output" + str(y))
print("prediction output: " + str(NN.feed_forward(X)))
print("Loss: " + str(np.mean(np.square(y - NN.feed_forward(X)))) )
Input: [[0.66666667 1.        ]
 [0.33333333 0.55555556]
 [1.         0.66666667]]
Actual Output[[0.92]
 [0.86]
 [0.89]]
prediction output: [[0.89374538]
 [0.88121398]
 [0.89661323]]
Loss: 0.00039435753694759285
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,496评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,407评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,632评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,180评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,198评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,165评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,052评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,910评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,324评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,542评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,711评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,424评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,017评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,668评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,823评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,722评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,611评论 2 353

推荐阅读更多精彩内容

  • DNN的反向传播 在学习CNN的反向传播之前,先学习一个DNN(普通的全连接层的深度神经网络)的反向传播。 DNN...
    砖业人士阅读 2,154评论 0 1
  • 本文从CSDN上转移过来:http://blog.csdn.net/mounty_fsc/article/deta...
    沤江一流阅读 1,443评论 0 0
  • 看完电影《我的少女时代》后入睡的,夜里,我梦见一个韩国的小鲜肉向我表白,我沉浸在巨大的幸福中,以至于早晨儿子喊我起...
    小玩具妈妈阅读 820评论 22 31
  • *3 Dec 1952* *Delhi*.On December 3rd, in the morning, a p...
    圣微阅读 363评论 0 1
  • 唯一的观众--生活,从来就不是个太好的观看者,它像一个刻薄的导演,用一个个现实对我们指手画脚,甚至加进很多戏码,似...
    天道酬勤_Fairy阅读 231评论 0 0