梯度消失的原因(极好理解)

转载自哈工大SCIR(公众号)

为了弄清楚为何会出现消失的梯度,来看看一个极简单的深度神经网络:每一层都只有一个单一的神经元。下图就是有三层隐藏层的神经网络:









也就是说具体是梯度消失还是梯度爆炸,实质上就是w参数来决定的(在选定sigmod的情况下)。

还有就是我们求梯度的时候是用代价函数来对参数求导的,由于神经元一级一级地传下来的时候,本质上就是一个复合函数了,因此求导的话必须采用复合函数求导法则,也就是每个神经元里面的sigmod都会被求导一次,而且连续相乘,由于我们知道sigmod函数的最大值是1/4,因此w参数乘以sigmod导数大于1还是小于1就一个判断梯度消失还是爆炸的标准了。

总结:就是处于某种场景模式下,出现了多元变量的连乘情况,这个情况一化简(连乘的每项(w*σ`)均是否大于1),就是一个中学数学题了!所以啊!很多复杂的概念其实都是表面复杂,本质上的脊梁骨还是很简单初级的!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容