链接:
1. 线性回归总结
2. 正则化
3. 逻辑回归
4. Boosting
5. Adaboost算法
线性回归是通过拟合来达到目的,而逻辑回归呢侧重的是探寻概率,它不去寻找拟合的超平面,而是去寻找某个数据的类别归属问题。
一. 预测函数
Sigmoid函数
怎么去预测?我们知道Sigmoid函数是如上这样的,它的表现是:将数据归纳在0-1之间,那么我们能不能通过去计算出的结果去拟合这样一个概率,使之成为一种分类的依据?答案是肯定的。凡事的概率都在0和1之间,拟合了概率,就是拟合了判定条件。
Paste_Image.png
二. 具体做法
我们知道线性回归是这样子的:
将Sigmoid函数加载到这个结果上,不就是将结果0-1概率化了么:
逻辑回归表达式
所以是这样子的:
回归对比
三. 损失函数
这样一来针对已有数据那就是0/1问题,要么概率为1的数据,要么概率为0的数据:
样本评判
对于我们来说概率可以简写合并成:
取其似然函数:
我们要做的是在最大似然估计就是求使 L(θ )取最大值时的θ
对数函数
这里可以自己做主,我选用下面作为损失函数,要是最大似然估计最大,就要使J(θ)函数最小,通过不断的优化θ使得J函数最小,进而L函数概率最大,完成任务。
损失函数
四. 求解过程
1. 梯度下降法:###
迭代函数
具体求解
2. 矩阵法:###
求解过程
最终公式
通过依次求解A,E, θ得到最终解。(A为线性回归的θ*X)
参考:
逻辑回归
逻辑回归模型(Logistic Regression, LR)基础 - 文赛平
机器学习—逻辑回归理论简介