一种新的rnn:NRU 非饱和循环网络

RNN目标是解决序列数据的学习问题,方法是每一刻给所有历史一个总结:
Si = f(xi, Si_1);
这就是一种状态机。

对RNN唯一的约束就是长程相关性:当前Sn状态允许对古老的x0敏感:
dSn/dx0 != 0

于是就有门电路法的lstm等结构:维护一个cell state,每一步遗忘点状态,再增加点状态进cell state,输出也可以控制下。这样的话,Cs就能保证能一直传递下去,长程得以保存

每个门都是由上一刻状态S_和当前输入x调节的:g=g(S_, x)

NRU的改进就是,使得这些门g也是长程的。

现有的门都是sigmond或者tanh,所以t时刻的门,与太老的x就没关系了(dgt/dx0 ~ 0),这样的门就不够高级,有些长程开关他实现不了。

NRU用ReLU做门激活函数,解决这个问题。实验显示挺牛。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容