深度学习(四):循环神经网络

一、基本原理

循环神经网络(recurrent neural network, RNN)是一类具有短期记忆能力的神经网络,其中神经元不但可以接受其它神经元的信息,也可以接受自身的信息,形成环路的网络结构。循环神经网络已被广泛用于语音识别、语言模型以及自然语言生成等任务上。

循环神经网络基本结构

给定一个输入序列\mathbf{x}_{1 : T}=\left(\mathbf{x}_{1}, \mathbf{x}_{2}, \dots, \mathbf{x}_{t}, \dots, \mathbf{x}_{T}\right),循环神经网络更新隐藏层活性值\mathbf{h}_{t}=f\left(\mathbf{h}_{t-1}, \mathbf{x}_{t}\right),其中h_0 = 0f(·)为一个非线性函数,也可以是一个前馈网络。理论上,循环神经网络可以近似任意非线性动力系统(通用近似定理)。循环神经网络应用到机器学习中可分为以下几种模式:序列到类别模式、同步的序列到序列模式、异步的序列到序列模式。

二、门控网络

2.1、LSTM

长短期记忆(long short term memory, LSTM)网络是循环神经网络的一个变体,可以有效避免梯度消失或爆炸问题。LSTM引入门机制(gating mechanism)来控制信息传递的路径,分别为输入门\mathbf{i}_{t},遗忘门\mathbf{f}_{t},输出门\mathbf{o}_{t}。遗忘门控制上一个时刻的内部状态{\mathbf{c}}_{t-1}需要遗忘多少信息,输入门控制当前时刻的候选状态\tilde{\mathbf{c}}_{t}有多少信息需要保存,输出门控制当前时刻的内部状态{\mathbf{c}}_{t}有多少信息需要输出给外部状态{\mathbf{h}}_{t}。三个门的计算方式如下:
\begin{aligned} \mathbf{i}_{t} &=\sigma\left(W_{i} \mathbf{x}_{t}+U_{i} \mathbf{h}_{t-1}+\mathbf{b}_{i}\right) \\ \mathbf{f}_{t} &=\sigma\left(W_{f} \mathbf{x}_{t}+U_{f} \mathbf{h}_{t-1}+\mathbf{b}_{f}\right) \\ \mathbf{o}_{t} &=\sigma\left(W_{o} \mathbf{x}_{t}+U_{o} \mathbf{h}_{t-1}+\mathbf{b}_{o}\right) \end{aligned}
LSTM循环单元结构如下所示,其计算过程为:(1)首先利用上一时刻的外部状态{\mathbf{h}}_{t-1}和当前时刻的输入{\mathbf{x}}_{t},计算出三个门,以及候选状态\tilde{\mathbf{c}}_{t};(2)结合遗忘门\mathbf{f}_{t} 和输入门\mathbf{i}_{t} 来更新记忆单元\mathbf{c}_{t};(3)结合输出门\mathbf{o}_{t},将内部状态的信息传递给外部状态\mathbf{h}_{t}

LSTM循环单元结构

通过LSTM循环单元,整个网络可以建立较长距离的时序依赖关系。描述如下:

\left[\begin{array}{c}{\tilde{\mathbf{c}}_{t}} \\ {\mathbf{o}_{t}} \\ {\mathbf{i}_{t}} \\ {\mathbf{f}_{t}}\end{array}\right]=\left[\begin{array}{c}{\tanh } \\ {\sigma} \\ {\sigma} \\ {\sigma}\end{array}\right]\left(W\left[\begin{array}{c}{\mathbf{x}_{t}} \\ {\mathbf{h}_{t-1}}\end{array}\right]+\mathbf{b}\right) \\ \begin{aligned} \mathbf{c}_{t}=& \mathbf{f}_{t} \odot \mathbf{c}_{t-1}+\mathbf{i}_{t} \odot \tilde{\mathbf{c}}_{t} \\ \mathbf{h}_{t} &=\mathbf{o}_{t} \odot \tanh \left(\mathbf{c}_{t}\right) \end{aligned}

循环神经网络中的隐状态h存储了历史信息,可以看作是一种记忆(memory) 。在简单循环网络中,隐状态每个时刻都会被重写,因此可以看作是一种短期记忆(short-term memory)。在神经网络中,长期记忆(long-term memory) 可以看作是网络参数,隐含了从训练数据中学到的经验,并更新周期要远远慢于短期记忆。而在LSTM网络中,记忆单元c可以在某个时刻捕捉到某个关键信息,并有能力将此关键信息保存一定的时间间隔。记忆单元c中保存信息的生命周期要长于短期记忆h,但又远远短于长期记忆,因此称为长的短期记忆。

2.2、GRU

门控循环单元(gated recurrent unit, GRU)网络是一种比LSTM更简单的循环神经网络。GRU网络也是引入门机制来控制信息更新的方式。在LSTM网络中,输入门和遗忘门是互补关系,用两个门比较冗余。GRU将输入门与和遗忘门合并成一个门:更新门。同时,GRU也不引入额外的记忆单元, 直接在当前状态h_t和历史状态h_{t−1}之间引入线性依赖关系。

更新门 \mathbf{z}_{t}=\sigma\left({W}_{z} \mathbf{x}_{t}+{U}_{z} \mathbf{h}_{t-1}+\mathbf{b}_{z}\right) ,用来控制当前状态需要从历史状态中 保留多少信息(不经过非线性变换),以及需要从候选状态中接受多少新信息。当z_t = 0时,当前状态h_t 和历史状态h_{t−1}之间为非线性函数。若同时有z_t = 0, r = 1时,GRU网络退化为简单循环网络;若同时有z_t = 0, r = 0时,当 前状态h_t只和当前输入x_t相关,和历史状态h_{t−1}无关。当 z_t =1 时,当前状 态h_t = h_{t−1}等于上一时刻状态h_{t−1},和当前输入x_t 无关。

重置门 \mathbf{r}_{t}=\sigma\left(W_{r} \mathbf{x}_{t}+U_{r} \mathbf{h}_{t-1}+\mathbf{b}_{r}\right),当\mathbf{r}_{t}=0时,候选状态\tilde{\mathbf{h}}_{t}=\tanh \left(W_{c} \mathbf{x}_{t}+\mathbf{b}\right)只和当前输入x_t 相关,和历史状态无关。当\mathbf{r}_{t}=1时,候选状态\tilde{\mathbf{h}}_{t}=\tanh \left(W_{h} \mathbf{x}_{t}+U_h\mathbf{h}_{t-1}+\mathbf{b}_h\right)和当前输入x_t 和历史状态\mathbf{h}_{t−1}相关,和简单循环网络一致。

GRU循环单元结构如下:

GRU循环单元结构

三、算法实现

本案例将通过循环神经网络对世界人均GDP的预测来感受其作用过程。
1、数据获取。读取世界银行网站人均GDP数据,选取11个国家,48年的数据,数据格式如下图所示。

from pandas_datareader import wb 
countries = ['BR','CA','CN','FR','DE','IN','IL','JP','SA','GB','US']
data = wb.download(indicator='NY.GDP.PCAP.KD',country=countries,start=1970,end=2018)
df = data.unstack().T
df.index = df.index.droplevel(0)
数据格式

2、搭建神经网络。神经网络包含两个部分:LSTM和全连接层。LSTM为简单单层结构,隐藏张量再通过全连接层线性变换,得到后一年的预测值。

import torch
import torch.nn
class Net(torch.nn.Module):
    def __init__(self,input_size,hidden_size):
        super(Net,self).__init__()
        self.rnn = torch.nn.LSTM(input_size,hidden_size)
        self.fc = torch.nn.Linear(hidden_size,1)
        
    def forward(self,x):
        x = x[:,:,None]
        x,_ = self.rnn(x)
        x = self.fc(x)
        x = x[:,:,0]
        return x

3、训练过程。把1971-2000年数据当做训练数据,把2001-2018年数据当做测试数据,训练前需要对数据进行归一化。如下图所示,在训练过程中,误差逐步减小。

lstm = Net(input_size=1,hidden_size=5)
df_scaled = df/df.loc['2000']

years = df.index
train_seq_len = sum((years>='1971') & (years<='2000'))
test_seq_len = sum(years>'2000')
print('length of train:{},length of test:{}'.format(train_seq_len,test_seq_len))

inputs = torch.tensor(df_scaled.iloc[:-1].values,dtype=torch.float32)
labels = torch.tensor(df_scaled.iloc[1:].values,dtype=torch.float32)

criterion = torch.nn.MSELoss()
optimizer = torch.optim.Adam(lstm.parameters())
train_loss_list,test_loss_list = [],[]

for step in range(10001):
    preds = lstm(inputs)
    train_preds = preds[:train_seq_len]
    train_labels = labels[:train_seq_len]
    train_loss = criterion(train_preds,train_labels)
    
    optimizer.zero_grad()
    train_loss.backward()
    optimizer.step()
    
    test_preds = preds[-test_seq_len]
    test_labels = labels[-test_seq_len]
    test_loss = criterion(test_preds,test_labels)
    
    train_loss_list.append(train_loss)
    test_loss_list.append(test_loss)
    
    if step % 500 == 0:
        print('epoch:{},train loss:{},test loss:{}'.format(step,train_loss,test_loss))

import matplotlib.pyplot as plt
plt.plot(train_loss_list)
plt.plot(test_loss_list)
plt.show()
训练误差和测试误差变化曲线

4、预测过程。利用训练好的模型预测新的值,下图展示了2000年后的预测值的数值。

from IPython.display import display

preds = lstm(inputs)
df_pred_scaled = pd.DataFrame(preds.detach().numpy(),index=years[1:],columns=df.columns)
df_pred = df_pred_scaled * df.loc['2000']
display(df_pred.loc['2001':])

部分预测值

为更加形象比较真实值和预测值的差异,以下显示了美国和中国的数据情况,可以看出美国的预测值比较精准,而中国的数据中2017,2018预测值偏差较大,这一方面有可能是由于数据本身存在统计错误,也有可能是中国今年积极推进扶贫工作的结果。



参考资料

[1] Vishnu Subramanian. Deep Learning with PyTorch. Packet Publishing. 2018.
[2] 邱锡鹏 著,神经网络与深度学习. https://nndl.github.io/ 2019.
[3] 肖智清 著,神经网络与PyTorch实战. 北京:机械工业出版社. 2018.
[4] 唐进民 编著,深度学习之PyTorch实战计算机视觉. 北京:电子工业出版社. 2018.
[5] Ian Goodfellow 等 著, 赵申剑等 译, 深度学习. 北京:人民邮电出版社, 2017.

吾心自有光明月,千古团圆永无缺。——王守仁《中秋》

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,294评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,493评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,790评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,595评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,718评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,906评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,053评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,797评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,250评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,570评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,711评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,388评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,018评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,796评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,023评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,461评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,595评论 2 350

推荐阅读更多精彩内容