Topic: cost Function
在Regression中,我们需要去拟合(fit)数据和我们的模型函数。
这样函数和数据集中的一些training data就会不拟合,在几何意义上有距离。
Cost Function就是为了量化的表示函数参数与数据集的契合程度而出现的。
举个例子,对于LR而言,我们要做的是选择合适的theta0和theta1,来让我们的线性函数拟合这个数据集。
由于这是一个很简单的例子,是二维的,因变量只有一个(polynomial)。
所以我们很容易根据中小学的知识得到几何距离公式
其中是hypothesis function,也就是我们所预测的Regression,而是具体某个training data的预测值
我们寻找最好参数的任务就变成了:
在最简化的情况下,我们连theta0都没有,只有一个theta1.
即hypothesis function穿过数轴原点。
在本节视频中,我们再来关注Cost Function
这是J函数的等高线图
虽然我们可以通过等高线图来得出结论,但我们真正需要的是一个可以高效的帮助我们找到适合参数的算法,而不是去想办法画等高线图,这个图只是为了帮助我们理解Cost Function J随参数的变化。
好的算法见下一章,Gradient Descent.