什么叫“回归”问题?为什么叫“回归(regression)”?
房价预测问题: 已知一组数据(size, price),给定一个价格值,预测其价格。
是一种监督学习的问题,这是因为要求样本有标签。
至于为什么取名回归(regression),知乎有一个很好的解释可以帮助直观理解和记忆:
实际上是生物统计学家高尔顿研究父母身高和子女身高时发现。
“即使父母的身高都‘极端’高,其子女不见得会比父母高,而是有“衰退”(regression)(也称作“回归)至平均身高的倾向”具体说明一下:
高尔顿当时拟合了父母平均身高和 子女平均身高
的经验方程:
可以看到,父代身高每增加一个单位, 其成年子女的平均身高只增加0.516个单位, 它反映了这种“衰退”效应(“回归”到正常人平均身高) 虽然之后的与
变量之间并不总是具有“衰退”(回归)关系,但是为了纪念高尔顿这位伟大的统计学家,“线性回归”这一名称就保留了下来。
作者:你好·世界
链接:https://www.zhihu.com/question/47455422/answer/139299878
来源:知乎2
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
另外, 房价预测回归问题返回的是实数取值的输出;有一类监督学习问题是分类问题,其返回的是离散取值的输出。
什么是假设(hypothesis)函数?
设上述房价预测问题的训练样本表示为, 那么,
就是将
映射为
的假设函数
单变量线性回归(univariate linear regression)问题的假设函数
其中,可以简写为
单变量回归问题的核心思想是什么?
单变量回归问题的核心思想就是: 对训练样本,寻找假设函数的参数
及
的值,使得假设函数
和
最接近。
什么是代价函数(cost function)?
回归问题核心思想,即上面的句子,用公式来表达的话,就是:
其中,是训练样本的个数
因此,定义函数为代价函数。
此函数又称为squared error function,平方误差函数。
为什么选取平方误差函数作为回归问题的代价函数?
先看直觉解释。
可以假定从而使得
的直线经过原点,方便观察和直觉理解。
先计算几种情况下
的取值。
例如,设样本 (3,3) (1,1) (2,2) 时,
,
,
当时,
=
同样,求得
有几个点之后,可以尝试画出函数的曲线。根据上面的式子,可以看出
取1时,该函数极小(因为等于0)。
也就是说其代价函数在时最小。
什么是“等高线图”,它能揭示什么?
contour plots
有两种等高线图,观察如下三种图,思考为什么它们表示的同一个意思
什么是“梯度下降”法?它是用来做什么的一种方法?
针对代价函数 ,目标是得到其最小值
,
从某个 开始,
不断改变 的值, 改变的方式是代价函数输出结果减少的方向
,
直到得到最小值(如果存在的话)
梯度下降算法的一般描述:
repeat until convergence {
}
对于单变量回归问题来说,这个算法中的循环,j=0, j=1
注意 算法中的为学习率,是表示每一次更新参数的步长、变化速度;
变量要同时更新。同时更新以为着什么?
而不是
单变量线性回归梯度下降法
根据上式对梯度下降公式的计算,所以,单变量线性回归下降算法具体如下:
repeat until convergence {
}
todolist: