计算机视觉漫谈(3)

计算机视觉漫谈(3)

学号:14020199025

姓名:徐铭晟

【嵌牛导读】:前段时间讲了最简单的分类算法:KNN,由此引入机器学习。在机器学习中,特别是监督学习中,算法纷繁复杂,但又大同小异。今天谈谈线性回归算法。

【嵌牛鼻子】:监督学习 线性回归 图像分类

【嵌牛正文】:

前段时间讲了最简单的分类算法:KNN,由此引入机器学习。在机器学习中,特别是监督学习中,算法纷繁复杂,但又大同小异。今天谈谈线性回归算法。

线性回归,说穿了就是拿出一条直线,拟合所有的数据点。拿吴恩达老师上课的例子:


这张图很好地阐明了这个算法的基本思想:构造一条直线,将直线的点与所有点的误差做累加,以此作为代价函数。对代价函数进行优化,我们就可以得到理想的直线。

有了这条直线,我们就可以通过房间的大小预测房价。

用数学表达式可写作:


我们可以看出,这个代价函数对于a,b是有闭式解的。当然除了驻点求最优解,我们还可以通过一些搜索算法求解,如牛顿迭代法,梯度下降法。这里略微提一下梯度下降:

梯度下降法的数学形式是:


为什么要利用梯度呢?当然线性模型,特别是这种一阶线性模型,非常简单,单单用闭式解就可以得到。但是当代价函数的最小值无法通过这种方法得到,自然就得求助于迭代算法,梯度下降也就派上了用场。

这个公式里,aplha,为迭代步长,又称为学习率。机器学习有人说是一门手艺活,各种玄学调参,这个学习率呢,也算调参的一个。当这个值越小,越容易梯度下降至局部最优点,越大,则越容易导致不收敛。发展至今学习率也不一定是常数的了,各种变种梯度下降算法,如moment,adam,可看看《deep learning》,里面有详细2介绍。


那如何利用此来学习图片分类?很自然的想法就是将图片像素拉伸成一维向量,并合理选取a,b的数目。对于特定分类的图片,利用之前的函数表达式训练,得到每一类的a,b等等。根据不同类产生的a,b,给定待分类图片,即可求出cost函数值。于是哪个cost函数值小,图片就应该分为该类

在实际过程中,我们很容易发现,这个模型缺点很明显。数据点有时候完全不按照直线分布,即拟合很差,如何解决,请看下讲。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 注:题中所指的『机器学习』不包括『深度学习』。本篇文章以理论推导为主,不涉及代码实现。 前些日子定下了未来三年左右...
    我偏笑_NSNirvana阅读 40,157评论 12 145
  • 第二个Topic讲深度学习,承接前面的《浅谈机器学习基础》。 深度学习简介 前面也提到过,机器学习的本质就是寻找最...
    我偏笑_NSNirvana阅读 15,740评论 7 49
  • 【今日话题】你四月份的目标是什么? 一、三月过去了,你有什么变化吗? 你的年度目标进度如何? 三月过去了,年度目标...
    茶艾的小窝阅读 267评论 5 2
  • 第二天周坤起了个早,六点的时候他就从床上爬了起来,简单的吃了一顿早餐后他就开始乔装打扮自己,他试了好几套衣服都不尽...
    大房子613阅读 249评论 0 7
  • 五道口地铁站的13号线——10号线,回家的这一段路上,我的思绪千千万万,不断涌来,我有一种急切地想要记录下来的冲...
    林夕瑟涩侬阅读 735评论 0 1