- 交叉熵可以在得到正确结果的同时衡量模型的好坏;
- 交叉熵在模型不能很好拟合的似乎求的偏导大,而模型拟合的差不多之后偏导变小。对比之下,MSE在训练一开始就偏导趋近于0,不好训练。
- 交叉熵和sigmoid一起用,求导形式非常简洁。
https://zhuanlan.zhihu.com/p/35707643
https://zhuanlan.zhihu.com/p/35709485
为什么在分类问题中常用交叉熵而不是MSE或者平均误差?
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
推荐阅读更多精彩内容
- 关注微信公众号“机器学习算法面试”获得更多机器学习面试题 问题引入 在之前的文章中也说过为啥LR用sigmod函数...
- 写在前面: 为了对比二分类和多分类对于模型训练结果的影响,首先需要对这两种损失函数有比较清晰的了解。 有空需要做一...
- 1、信息量 信息量是通过概率来定义的:如果一件事情的概率很低,那么它的信息量就很大;反之,如果一件事情的概率很高,...
- 简介 在前两篇文章手写一个全连接神经网络用于MNIST数据集[https://www.jianshu.com/p/...