GRU
具体内容(附代码)链接:https://www.kesci.com/org/boyuai/project/5e4291f05f2816002ce8f9a0
代码讲解视频链接:伯禹学习平台
选择题
1.
LSTM单元中控制当前时间步输入的结构是?
A.遗忘门
B.输入门
C.输出门
D.记忆细胞
答案:B
2.
实现深层循环神经网络需要修改的参数是?
A.input_size
B.hidden_size
C.bidirectional
D.num_layers
答案:D
3.
下列关于GRU说法正确的是?
A.GRU有遗忘门、更新门两种门控结构
B.GRU中重置门有助于捕捉时间序列里长期的依赖关系
C.GRU中更新门有助于捕捉时间序列里长期的依赖关系
D.GRU中遗忘门有助于捕捉时间序列里长期的依赖关系
答案:C
GRU有重置门和更新门,没有遗忘门。重置门有助于捕捉时间序列里短期的依赖关系,更新门有助于捕捉时间序列⾥长期的依赖关系。参考视频1分20秒起关于GRU的原理讲解。
4.
在LSTM模型的初始化中,下列不需要初始化的参数是?
A.每个循环单元中的记忆细胞和循环单元的值
B.第0个循环单元的记忆细胞和循环单元的值
C.门控单元中用于计算遗忘门的权重与偏差
D.用于计算输出的权重与偏差
答案:A
每个循环单元中的记忆细胞和循环单元的值为LSTM模型中的隐状态,而非参数,因此不需要初始化。
5.
下列关于RNN的说法错误的是?
A.GRU、LSTM都能捕捉时间序列中时间步距离较⼤的依赖关系。
B.双向循环神经网络在文本任务里能做到同时考虑上文和下文与当前词之间的依赖。
C.LSTM和GRU能一定程度缓解梯度消失与梯度爆炸的问题。
D.深层循环网络能有效抽取更高层更抽象的信息,层数越深效果越好。
答案:D
层数越深效果未必越好,层数的加深会导致模型的收敛变得困难。
6.
双向循环神经网络前向和后向RNN连结的方式是
A.前向的output和后向的output用concat进行连结
B.前向的Ht和后向的Ht用concat进行连结
C.前向的output和后向的output按元素相加
D.前向的Ht和后向的Ht按元素相加
答案:B