[Week 1] Machine-learning Notes 2 ——Model and Cost Function(引出代价函数)

现在来约定一些变量
"m"= Number of training examples(表示训练样本的数目)
"x"="input" variable /features (输入变量或者是特征变量)
"y"="output" variable/"target" variables (输出变量或者目标变量)

Model Representation(模型表示)

Model Representation

线性回归模型(Linear regression)模型,说简单点就是一个关于单变量的线性回归,即单变量线性回归这个变量就是x。

Cost Functon(代价函数)

代价函数的概念,使得我们能够弄清楚如何把最有可能的直线与我们的数据相拟合。代价函数也被称为平方误差函数或者平方误差代价函数。我们之所以要求出误差的平方和,是因为平方误差代价函数对于大多数回归问题都是一个合理的选择。(还有其他的代价函数,但是平方误差代价函数可能是解决回归问题最常用的手段,后续会讨论其他的)

代价函数的工作原理:求出与我们的数据相拟合的最有可能的直线
代价函数到底在计算什么: 误差。因为代价函数实际上是就是代价函数所求的值越小,那么误差就越小,拟合出来的曲线越接近数据的实际情况

Cost Function
Cost Function - Intuition I

通过给假设函数的自变量赋值带入,然后求出J的值,从而手动的拟合出一条曲线,估计出J的最小值。

所以其实根据已经有的点来获得拟合函数,1是可以通过《HeadFirst DA》来直接用excel来拟合,2是可以通过已经有的点来手动拟合这点应该只是高中的知识。3是 可以通过代价函数,求出相关性最大的公式。

更加深入的学习代价函数的作用:


目前为止的重要公式

contour plot 或contour figure都是轮廓图的意思

Cost Function - Intuition II

右边轮廓图中的一个点,就是左边图像中的一条线。

即,我们真正需要的,是编写程序来找出最小化代价函数的θ0和θ1的值,我们需要知道一种算法,能够自动地找出能使代价函数 J 最小化的参数θ0和θ1的值 ,这就要引出下一节讨论的内容——梯度下降函数。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容