LSTM

Recurrent Neural Networks

  • networks with loops in them, allowing information to persist.
Paste_Image.png
  • unroll
Paste_Image.png

The Problem of Long-Term Dependencies

  • use past to predict now
Paste_Image.png
  • 这是普通的RNN结构


    Paste_Image.png
  • 这是LSTM结构

Paste_Image.png
Paste_Image.png

The Core Idea Behind LSTMs

  • 重要的点 cell state(传输带),能够在上面增加或者去除cell
Paste_Image.png
  • 门有让信息通过的能力。由sigmoid和乘法运算组成。
Paste_Image.png

它决定有多少信息通过。0意味着不让任何信息通过,1意味着让所有信息通过。

Step-by-Step LSTM Walk Through

  • “forget gate layer.”
Paste_Image.png
  • decide what new information we’re going to store
Paste_Image.png
  • 我们决定那些要忘记,那些信息重要的要留下
Paste_Image.png
  • 最后我们决定要输出什么(时态or词性)
Paste_Image.png

LSTM变形

1.我们希望在忘记之前能够查看cell state的情况(peepholes)

Paste_Image.png

2.当我们忘记旧的东西,我们才加入新的值

Paste_Image.png

3.把forget gate 和 input gate 变成update gate。把cell state 和hidden state 结合在一起。

Paste_Image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容