牛顿法是一阶还是二阶,为什么很少用

1、牛顿法本身是一阶算法,本质是求根算法。但如果用来求最优解(极值点),这时就要求导数为0的跟,就需要求二阶导数,就变成了二阶算法。

求根:

求极值点:


牛顿法-维基百科

牛顿法到底是一阶优化算法还是二阶优化算法?

2、为什么在机器学习优化问题中很少用牛顿法?

因为牛顿法求极值需要求Hessian矩阵及其逆矩阵,计算量比较大

为什么机器学习中的优化问题很少用到牛顿法?

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容