Machine Learning by Andrew Ng 学习笔记()

监督学习

非监督学习

监督学习的一般流程与术语
x和y

训练模型

训练模型即最小化代价函数的过程,有如下方法

梯度下降法

模型下降法(Gradient Descent)有一个很形象的帮助理解的方法(对于2个参数的情况)


快速收敛的Tricks

经验为主

特征缩放(Feature Scaling)

  • 均值归一化(Mean Normalization)

损失函数变大

学习率过大,overshooting

线性回归(Linear Regression)

损失函数:

逻辑回归(Logistic Regression)

损失函数:
最大似然估计(maximum likelihood estimation)

不用手动选择alpha(线性搜索法line search自动选择)
比梯度下降法更快
更复杂

多分类问题

共轭梯度法(Conjugate Gradient)
DFP
BFGS

overfitting:有太多feature,hypothesis很容易拟合当前数据,loss接近0,但是不能很好的泛化
high variance

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容