线性回归和逻辑回归理解

1、线性回归算法

假设函数:
1.png

代价函数:
LinearR1.png

优化方法:采用梯度下降法进行全局最小值的求解,同时应该注意的是,梯度下降法是对代价函数求梯度。
Tips:损失函数是定义在单个样本上的,求得是一个样本的值和预测值的差值;代价函数是定义在整个训练集之上的,是所有样本误差的平均,也即为损失函数的平均。目标函数定义为代价函数+正则化项(解决过拟合问题),即为最终的优化函数。
2、LR逻辑回归算法
逻辑回归是一个经典的二分类(0/1 or 1/-1)模型,这是其和线性回归本质上的区别。但二者同样都是广义的线性模型。逻辑回归假设因变量y服从伯努利分布,线性回归假设因变量y服从高斯分布。并且逻辑回归通过sigmoid函数映射引入了非线性,使其可以轻松解决分类问题。
假设函数:其值域为(0,1)的开区间,其作为激活函数在趋近于0或1的区域,为饱和区。


CodeCogsEqn.png

其真正的假设:
LR2.png

代价函数:(0/1分类的代价函数)
3.png

优化方法:采用梯度下降法进行全局最小值的求解,同时应该注意的是,梯度下降法是对代价函数求梯度。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容