逻辑回归也是机器学习领域最基础的模型之一,第一次见到逻辑回归似乎觉得与昨天推的线性回归相似,但是两者的本质是有很大的差别的,虽说叫逻辑回归,但是主要解决的是确是分类问题(二分类问题)。
在逻辑回归中因变量的取值是二元分布,模型学习得出的是E[y|x;theat],最后得到的因变量是一个期望,最终通过期望来进行预测分类。
求解逻辑回归的过程大致可以分为三步:
- 分析数据集,找到合适的预测分类函数
- 构造损失函数
- 找到损失函数的最小值
在二分类问题中,通常用sigmoid作为预测分类函数,sigmoid函数公式如图一所示
图二是sigmoid函数的图像,从图中我们可以看到,sigmoid函数图像是一条取值介于0到1之间的S型曲线,当x>0时,概率P>0.5,当x<0时,概率P<0.5,因为sigmoid函数的这种属性,所以常用来作为二分类问题的预测分类函数。