起因:Recurrent neural network based language model中公式六有点费解
参考Classification and Loss Evaluation - Softmax and Cross Entropy Loss
Softmax函数
为了避免过大导致浮点数溢出,一般使用常数乘子将趋向于无穷的指数修改为趋向于零的指数。通常
Softmax函数求导
如果,
如果,
所以求导结果为
起因:Recurrent neural network based language model中公式六有点费解
参考Classification and Loss Evaluation - Softmax and Cross Entropy Loss
为了避免过大导致浮点数溢出,一般使用常数乘子将趋向于无穷的指数修改为趋向于零的指数。通常
如果,
如果,
所以求导结果为