技术交流QQ群:1027579432,欢迎你的加入!
1.概述
- 为了改善基本RNN的长期依赖问题,一种方法是引入门控机制来控制信息的累积速度,包括有选择性地加入新的信息,并有选择性遗忘之前累积的信息。下面主要介绍两种基于门控的循环神经网络:长短时记忆网络和门控循环单元网络。因为基本的RNN即,每层的隐状态都是由前一层的隐状态经变换和激活函数得到的,反向传播求导时,最终得到的导数会包含每步梯度的连乘,会导致梯度爆炸或消失。所以,基本的RNN很难处理长期依赖问题,即无法学习到序列中蕴含的间隔时间较长的规律。
2.长短时记忆网络LSTM
-
2.1长短时记忆网络是基本的循环神经网络的一种变体,可以有效的解决简单RNN的梯度爆炸或消失问题。LSTM网络主要改进在下面两个方面:
-
1.新的内部状态:LSTM网络引入一个新的内部状态,专门进行线性的循环信息传递,同时输出信息给隐藏层的外部状态.
符号说明:、、分别代表遗忘门、输入门、输出门用来控制信息传递的路径;⊙表示向量元素的点乘;表示上一时刻的记忆单元;表示通过非线性函数得到的候选状态。
在每个时刻t,LSTM网络的内部状态记录了到当前时刻为止的历史信息。 -
2.门控机制:LSTM网络引入了门控机制,用来控制信息传递的路径,、、分别代表遗忘门、输入门、输出门。这里的门概念类似于电路中的逻辑门概念,1表示开放状态,允许信息通过;0表示关闭状态,阻止信息通过。LSTM网络中的门是一个抽象的概念,借助sigmiod函数,使得输出值在(0,1)之间,表示以一定的比例运行信息通过。三个门的作用如下:
- 遗忘门控制上一时刻的内部状态需要遗忘多少信息
- 输入门控制当前时刻的候选状态有多少信息需要保存
- 输出门控制当前时刻的内部状态有多少信息需要输出给外部状态
当时,记忆单元将历史信息清空,并将候选状态向量写入。但此时记忆单元依然和上一时刻的历史信息相关。当时,记忆单元将复制上一时刻的内容,不写入新的信息。三个门的计算公式如下:
其中,激活函数使用sigmoid函数,其输出区间是(0,1),表示当前时刻的输入,表示上一时刻的外部状态。
-
1.新的内部状态:LSTM网络引入一个新的内部状态,专门进行线性的循环信息传递,同时输出信息给隐藏层的外部状态.
-
2.2 LSTM网络的循环单元结构如下图所示,计算过程如下:
- a.利用上一时刻的外部状态和当前时刻的输入,计算出三个门,已经候选状态
- b.结合遗忘门和输入门来更新记忆单元
- c.结合输出门,将内部状态的信息传递给外部状态
- a.利用上一时刻的外部状态和当前时刻的输入,计算出三个门,已经候选状态
3.门控循环单元网络GRU
- GRU与LSTM的不同之处在于:GRU不引入额外的记忆单元,GRU网络引入一个更新门来控制当前状态需要从历史状态中保留多少信息(不经过非线性变换),以及需要从候选状态中接收多少新的信息。
其中,为更新门
在GRU网络中,函数定义为:
上式中的符号说明:表示当前时刻的候选状态,为重置门,用来控制候选状态的计算是否依赖上一时刻的状态。
当=0时,候选状态只和当前输入相关而与历史状态无关。当=1时,候选状态和当前输入相关,也和历史状态相关,此时和简单的RNN是一样的。
综合上述各式,GRU网络的状态更新方式为:
- 总结:当时,GRU网络退化为简单的RNN;若时,当前状态只和当前输入相关,和历史状态无关。当时,当前状态等于上一时刻状态和当前输入无关。
3.实战:基于Keras的LSTM和GRU的文本分类
import random
import jieba
import pandas as pd
import numpy as np
stopwords = pd.read_csv(r"E:\DeepLearning\jupyter_code\dataset\corpus\03_project\stopwords.txt", index_col=False, quoting=3, sep="\t", names=["stopword"], encoding="utf-8")
stopwords = stopwords["stopword"].values
# 加载语料
laogong_df = pd.read_csv(r"E:\DeepLearning\jupyter_code\dataset\corpus\03_project\beilaogongda.csv", encoding="utf-8", sep=",")
laopo_df = pd.read_csv(r"E:\DeepLearning\jupyter_code\dataset\corpus\03_project\beilaopoda.csv", encoding="utf-8", sep=",")
erzi_df = pd.read_csv(r"E:\DeepLearning\jupyter_code\dataset\corpus\03_project\beierzida.csv", encoding="utf-8", sep=",")
nver_df = pd.read_csv(r"E:\DeepLearning\jupyter_code\dataset\corpus\03_project\beinverda.csv", encoding="utf-8", sep=",")
# 删除语料的nan行
laogong_df.dropna(inplace=True)
laopo_df.dropna(inplace=True)
erzi_df.dropna(inplace=True)
nver_df.dropna(inplace=True)
# 转换
laogong = laogong_df.segment.values.tolist()
laopo = laopo_df.segment.values.tolist()
erzi = erzi_df.segment.values.tolist()
nver = nver_df.segment.values.tolist()
# 分词和去掉停用词
## 定义分词和打标签函数preprocess_text
def preprocess_text(content_lines, sentences, category):
# content_lines是上面转换得到的list
# sentences是空的list,用来存储打上标签后的数据
# category是类型标签
for line in content_lines:
try:
segs = jieba.lcut(line)
segs = [v for v in segs if not str(v).isdigit()] # 除去数字
segs = list(filter(lambda x: x.strip(), segs)) # 除去左右空格
segs = list(filter(lambda x: len(x) > 1, segs)) # 除去长度为1的字符
segs = list(filter(lambda x: x not in stopwords, segs)) # 除去停用词
sentences.append((" ".join(segs), category)) # 打标签
except Exception:
print(line)
continue
# 调用上面函数,生成训练数据
sentences = []
preprocess_text(laogong, sentences, 0)
preprocess_text(laopo, sentences, 1)
preprocess_text(erzi, sentences, 2)
preprocess_text(nver, sentences, 3)
# 先打乱数据,使得数据分布均匀,然后获取特征和标签列表
random.shuffle(sentences) # 打乱数据,生成更可靠的训练集
for sentence in sentences[:10]: # 输出前10条数据,观察一下
print(sentence[0], sentence[1])
# 所有特征和对应标签
all_texts = [sentence[0] for sentence in sentences]
all_labels = [sentence[1] for sentence in sentences]
# 使用LSTM对数据进行分类
from keras.preprocessing.text import Tokenizer
from keras.preprocessing.sequence import pad_sequences
from keras.utils import to_categorical
from keras.layers import Dense, Input, Flatten, Dropout
from keras.layers import LSTM, Embedding, GRU
from keras.models import Sequential
# 预定义变量
MAX_SEQENCE_LENGTH = 100 # 最大序列长度
EMBEDDING_DIM = 200 # 词嵌入维度
VALIDATION_SPLIT = 0.16 # 验证集比例
TEST_SPLIT = 0.2 # 测试集比例
# 使用keras的sequence模块文本序列填充
tokenizer = Tokenizer()
tokenizer.fit_on_texts(all_texts)
sequences = tokenizer.texts_to_sequences(all_texts)
word_index = tokenizer.word_index
print("Found %s unique tokens." % len(word_index))
data = pad_sequences(sequences, maxlen=MAX_SEQENCE_LENGTH)
labels = to_categorical(np.asarray(all_labels))
print("data shape:", data.shape)
print("labels shape:", labels.shape)
# 数据切分
p1 = int(len(data) * (1 - VALIDATION_SPLIT - TEST_SPLIT))
p2 = int(len(data) * (1 - TEST_SPLIT))
# 训练集
x_train = data[:p1]
y_train = labels[:p1]
# 验证集
x_val = data[p1:p2]
y_val = labels[p1:p2]
# 测试集
x_test = data[p2:]
y_test = labels[p2:]
# LSTM训练模型
model = Sequential()
model.add(Embedding(len(word_index) + 1, EMBEDDING_DIM, input_length=MAX_SEQENCE_LENGTH))
model.add(LSTM(200, dropout=0.2, recurrent_dropout=0.2))
model.add(Dropout(0.2))
model.add(Dense(64, activation="relu"))
model.add(Dense(labels.shape[1], activation="softmax"))
model.summary()
# 模型编译
model.compile(loss="categorical_crossentropy", optimizer="rmsprop", metrics=["acc"])
print(model.metrics_names)
model.fit(x_train, y_train, validation_data=(x_val, y_val), epochs=10, batch_size=128)
model.save("lstm.h5")
# 模型评估
print(model.evaluate(x_test, y_test))
# 使用GRU模型
model = Sequential()
model.add(Embedding(len(word_index) + 1, EMBEDDING_DIM, input_length=MAX_SEQENCE_LENGTH))
model.add(GRU(200, dropout=0.2, recurrent_dropout=0.2))
model.add(Dropout(0.2))
model.add(Dense(64, activation="relu"))
model.add(Dense(labels.shape[1], activation="softmax"))
model.summary()
model.compile(loss="categorical_crossentropy", optimizer="rmsprop", metrics=["acc"])
print(model.metrics_names)
model.fit(x_train, y_train, validation_data=(x_val, y_val), epochs=10, batch_size=128)
model.save("gru.h5")
print(model.evaluate(x_test, y_test))