问题: 1. 在失败后放弃 2. 靠游戏和撸管来休息 3. 说得太多 18年: 1. 调整好如何休息(除了休息日能玩游戏外),应该用 睡觉,冥想,运动,阅读,走路跳舞 的方式...
问题: 1. 在失败后放弃 2. 靠游戏和撸管来休息 3. 说得太多 18年: 1. 调整好如何休息(除了休息日能玩游戏外),应该用 睡觉,冥想,运动,阅读,走路跳舞 的方式...
简称情商(EQ)。情感智能通常包括五种能力: 1、了解和表达自己情感的能力,真正知道自己确实感受的能力。 2、控制自己感情和延缓满足自己欲望的能力。 3、了解别人的情感以及对...
1. 书籍的核心(讨论的问题问题)是什么? 2. 作者的观点,以及支撑的依据是什么 3. 其他人的观点是什么 4. 两者相比如何? 5. 作为读者,你怎么看
@zeekzhen 因为你丢进去的只有时间序列,好比说股价的时间序列, 影响每一天价格的因素除了t-1的价格之外,还有太多的东西了,好比说公司的财务指标,市场环境等等,可是这些在你的模型中都并没有体现
RNN教程之-2 LSTM实战本文由清华大学硕士大神金天撰写,欢迎大家转载,不过请保留这段版权信息,对本文内容有疑问欢迎联系作者微信:jintianiloveu探讨,多谢合作~ UPDATE:2019-0...
@xxx666 哈哈,是的
RNN教程之-2 LSTM实战本文由清华大学硕士大神金天撰写,欢迎大家转载,不过请保留这段版权信息,对本文内容有疑问欢迎联系作者微信:jintianiloveu探讨,多谢合作~ UPDATE:2019-0...
@Nicholas_Jela 在shuffle的情况下确实是的,但是shuffle本身就不合理,这样你部分train的数据就来自于未来了
RNN教程之-2 LSTM实战本文由清华大学硕士大神金天撰写,欢迎大家转载,不过请保留这段版权信息,对本文内容有疑问欢迎联系作者微信:jintianiloveu探讨,多谢合作~ UPDATE:2019-0...
同时作者还犯了第二个错误,就是在normalize data的时候,直接拿所有的data, data_all 去normalize, 但实际上正确的approach 应该是normalize train, 然后用train的parameter 去normalize test(如train的min, max, avg, std等取决于你的normalize 的方法,if train和test来自same underlying distribution)。因为用整个data set 去normalize 的话相当于提前获取了未来的信息(你的normalize 不光是取决于过去/train的data, 还和未来/test有关)
RNN教程之-2 LSTM实战本文由清华大学硕士大神金天撰写,欢迎大家转载,不过请保留这段版权信息,对本文内容有疑问欢迎联系作者微信:jintianiloveu探讨,多谢合作~ UPDATE:2019-0...
首先感谢作者的分享,挺好的入门教程
但是,针对大家都在问的randomize的问题, 我个人做了一个实验:先按时间顺序做train test split,然后再randomize train(逻辑上应该是一样的),去看看test上fit的结果。结果非常糟糕(至少在我的time series数据上)。
实际上,我一开始看到这篇文章的时候就对randomize 产生了怀疑, 因为LSTM相比RNN, 最大的进步就在于它的gate 对于long term memory 和 working memory 中信息的保存和使用,但是randomize 以后完全就使这个部分无效化了。 但是作者在评论区里的解释并不能让我信服。所以我自己去做了这个尝试,对于结果,我给的一个猜测是: train的时候因为使用的是randomize的数据,所以数据是散布在各个时间段的。 好比说我的数据是15,16,17三年的,那么train和test里就都有这三年每个交易日的数据。 因此,当我们预测test的时候, 很有可能我们预测的时间接下来的时间(好比说我们去预测2017.7.16, 但是2017.7.17-7.20的数据在randomize 后都分配到train里面了)已经被Model给train过了,因此在fit test的时候,它的结果就会更好。事实上,如果先按时间顺序做train test split,不randomize 反而还比randomize 结果要更好(但如果只用time series数据,你很有可能得到的就是滞后一天的趋势)
最后的最后,还是想分享一句我个人信奉的真理:丢进去的数据是shit,再强的模型,出来的结果还是shit
希望这条评论能够对所有以后看到这篇文章的人有所帮助
RNN教程之-2 LSTM实战本文由清华大学硕士大神金天撰写,欢迎大家转载,不过请保留这段版权信息,对本文内容有疑问欢迎联系作者微信:jintianiloveu探讨,多谢合作~ UPDATE:2019-0...
Nice work, thx
如何简单的理解LSTM——其实没有那么复杂译自原文:Understanding LSTM Networks 循环神经网络 人类针对每个问题的思考,一般不会是完全的从头开始思考。正如当你阅读这篇译文的时候,你会根据已经...