卷积神经网络中卷积运算的前向传播与反向传播推导

文章作者:Tyan
博客:noahsnail.com  |  CSDN  |  [简书](http://www.jianshu.com/users/7731e83f3a4e/latest_articles

0. 必备基础知识

  • 卷积以及卷积的运算过程

  • 微分相关知识,包括求偏导及链式法则

1. 卷积运算的前向传播

数学符号定义:

输入:

Input

卷积核:

Filter

输出:

Output

卷积运算:

Convolution

Convolution

定义损失函数,将损失函数定义为输出的和,这样方便反向传播计算的演示:

Loss Function

X -> Y -> L的过程是卷积运算的前向传播过程,为了简化这个过程,这里忽略了偏置项b以及卷积之后的激活函数。

2. 卷积运算的反向传播

  • 计算损失函数L对输出Y的梯度
Derivation
  • 计算输入X的梯度
Derivation

计算其中每一项的梯度:

Chain Rule
  • 计算卷积核W的梯度
Derivation

计算其中每一项的梯度:

Chain Rule

参考资料

  1. https://plantsandbuildings.github.io/machine-learning/misc/math/2018/04/28/a-ground-up-c++-convnet-that-scores-0.973-on-the-kaggle-digit-recognizer-challenge.html
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容