Colah 的《Understanding LSTM Networks》笔记

最近做毕设读论文读得心累,很多论文公式一堆提升逼格,很多想法也不具普适性,好像大家都在各玩各的。
前两日看到知乎一个问题 如何评价深度学习文章平台Distill?,好奇点进一看究竟。啊真是通透易懂,平易近人。因为最近在研究Reservoir Comuting和ESN的东西,就着重看了一下RNN一块,做个小笔记。

Recurrent Neural Networks

人类的认知是连续的,认知事物总有先前经验,不会将所有事都重新思考。RNN是一种能让信息暂存的神经网络,它有loops,loop能够将信息不断往下一个网络状态传。


LSTM是一种特殊的RNN,表现突出。

The Problem of Long-Term Dependencies

比如说要预测 “the clouds are in the ___”,这个填空很简单肯定是sky,这是RNN能做的一件对过去信息需求量(通俗地说就是经验)比较小的事情。但是如果对过去信息需求量大的话,RNN表现不太好。但是LSTM就超棒der。

LSTM Networks

LSTMs are explicitly designed to avoid the long-term dependency problem.

标准RNN的循环模块只有单层
LSTM的循环模块有四个相互作用层

根据LSTM的模型图,\sigma 是介于0~1之间,决定保留多少信息来保障cell的状态,决定每个状态下的输出。

涉及到具体公式就不往下写了。这是一篇为了让爸妈看懂我在干啥的小笔记~

原文:Understanding LSTM Networks

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容