1.批量梯度下降
每次遍历所有的样本对进行梯度更新,迭代次数较少,在样本数量较多的训练速度慢。
2.随机梯度下降
每次只是用一个样本,更新速度慢,可能会收敛到局部最优。
3.小批量梯度下降
设置batch__size,结果相对精确,速度相对快。
梯度下降方法
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
相关阅读更多精彩内容
- 转载自链接:https://www.cnblogs.com/lliuye/p/9451903.html 梯度下降法...
- 之所以叫盒饭版算法,是希望能在最短时间讲一些没那么正式的东西。 在机器学习里,我们通常用优化方法来计算模型的未知参...