循环神经网络-Question

1. 如何进行句子编码,提取句子的特征向量,有哪几种方式(CNN、LSTM、Attention),各种方式的优缺点。

CNN、LSTM、Transformer是目前流行的三大特征抽取器。

  • 长距离特征捕获能力:可以任务Transformer和LSTM在这方便能力差不多,而CNN则显著弱于前两者。(CNN提取长距离特征能力受到其卷积核感受野的限制;Transformer使用attention计算距离为1,而且使用Multi-Head越多,特征捕获能力越强。)
  • 并行计算能力:并行计算是RNN的严重缺陷,而Transformer和CNN差不多。

2. 介绍RNN、LSTM、GRU并比较。

RNN:
s_t=f(Ws_{t-1}+Ux_t+b) \\ o_t=g(Vs_t+b)=softmax(Vs_t+b) \tag{2.1}

LSTM:
f_t=\sigma(W^f s_{t-1}+U^f x_t) \\ i_t=\sigma(W^i s_{t-1}+U^i x_t) \\ o_t=\sigma(W^o s_{t-1}+U^o x_t) \\ \tilde{c_t}=tanh(W^cs_{t-1}+U^cx_t) \\ c_t=f_t \circ c_{t-1} + i_t \circ \tilde{c}_t \\ s_t=o_t \circ tanh(c_t) \tag{2.2}

GRU:
r_t=\sigma(W^r s_{t-1}+U^r x_t) \\ z_t=\sigma(W^z s_{t-1}+U^r x_t) \\ \tilde{s_t}=tanh(r_t \circ W^s s_{t-1}+U^s x_t) \\ s_t=(1-z_t)\circ s_{t-1} + z_t \circ \tilde{s_t} \tag{2.3}

总结:RNN存在长依赖问题(梯度消失:使用ReLU激活函数;或者梯度爆炸:使用梯度裁剪;)。LSTM使用三个门控单元(遗忘门、输入门、输出门)解决RNN存在的长依赖问题(主要是长依赖问题中的梯度消失问题。)。GRU简化了LSTM的结构,使用两个门控单元(更新门、重置门)

3. LSTM中输入、隐藏层、输出层的维度都一样吗?

输入的维度可以与隐藏层和输出不同。
https://www.cnblogs.com/wushaogui/p/9176617.html

4. LSTM中步长改变,参数改变吗?

LSTM的步长改变,对参数数量没有影响。

5. 估计一层LSTM的参数量。

对于LSTM来说,假设你有一个时间步特征维度是n=5,经过该LSTM得到的维度是m=10,这样就可以算出该LSTM层的神经元个数为:
Neurons_{all}=4 * [(n+m) * m + m]=4*[(5+10)*10+10]=640

from keras.layers import LSTM
from keras.models import Sequential

time_step=13
featrue=5
hidenfeatrue=10

model=Sequential()
model.add( LSTM(hidenfeatrue,input_shape=(time_step,featrue)))
model.summary()

输出是:

_________________________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================================
lstm_8 (LSTM)                (None, 10)                640       
=================================================================================
Total params: 640
Trainable params: 640
Non-trainable params: 0
_________________________________________________________________________________

6. textcnn和LSTM相比有什么不同?

textcnn是使用CNN做特征抽取的,提取方式类似于n-gram的特征,忽略了词序,所以在词序不敏感的场景效果较好。LSTM可以捕获序列信息,在情感分析这种词序很重要的场景中效果更好。

7. LSTM和GRU的区别,GRU具体简化了哪个门。

GRU(更新门、重置门)是LSTM(遗忘门、输入门、输出门)的变种,简化了LSTM的结构(记忆单元)

1. 如何做数据增强?

  • 随机drop和shuffle
    比如:“如何评价 2017 知乎看山杯机器学习比赛?”,drop后“如何 2017 看山杯机器学习”;shuffle后“2017 机器学习?如何比赛知乎评价看山杯”
  • 同义词替换
    例如,我们将句子“我非常喜欢这部电影”改为“我非常喜欢这个影片”
  • 回译
    我们用机器翻译把一段英语翻译成另一种语言,然后再翻译回英语。
  • 预训练的语言模型
  • 生成对抗网络
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,390评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,821评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,632评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,170评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,033评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,098评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,511评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,204评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,479评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,572评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,341评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,213评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,576评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,893评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,171评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,486评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,676评论 2 335

推荐阅读更多精彩内容