防止欠/过拟合
正则化
岭回归(ridge regression(L2))
Lasso Regression(L1)
Elastic Net Regularization
特征选择
- 正则化通过缩小特征的“贡献”对特征进行选择
- 特征选择也可以通过移除特征实现
- 减少特征数目是防止过拟合的方法之一
- 对一些模型而言,更少的特征意味着更快的训练速度、更短的时间
- 分辨最关键的特征可以提升模型解释性
递归特征消除(Recursive Feature Elimination)
梯度下降(Gradient Descent)
使用线性回归的梯度下降
随机梯度下降(Stochastic Gradient Descent)
Mini Batch Gradient Descent
一般Batch的规模约为50~256个点