逻辑回归和线性回归的异同点
如果你光说名词相近,那面试官就要打你了。
不同点
逻辑 回归与线性回归最大的区别,即逻辑回归中的因变量为离散的,而线性回归中的 因变量是连续的。并且在自变量x与超参数θ确定的情况下,逻辑回归可以看作广 义线性模型(Generalized Linear Models)在因变量y服从二元分布时的一个特殊情 况;而使用最小二乘法求解线性回归时,我们认为因变量y服从正态分布。
相同点
首先我们可以认为二者都使用了 极大似然估计来对训练样本进行建模。线性回归使用最小二乘法,实际上就是在 自变量x与超参数θ确定,因变量y服从正态分布的假设下,使用极大似然估计的一个化简;
的学习,得到最佳 参数θ。另外,二者在求解超参数的过程中,都可以使用梯度下降的方法,这也是 监督学习中一个常见的相似之处。