主要解决分类和概率问题
假设公式
或者叫Sigmoid Function
损失函数
梯度下降
过拟合
- 防止过拟合:
均适用线性回归和逻辑回归:
1、减少feature数
1) example较少的情况下,减少feature个数
2) 使用模型选择算法
2、正则化
1)保留所有feature,减少Zeta
2) Regularization works well when we have a lot of slightly useful features
- 梯度下降
Zeta 0 不需要处理