coursera 机器学习 - week 1 - linear regression with one variable

从这节课开始进入真正的学习阶段。
就像前一节描述的监督式学习,我们对于学习目的是明确的,譬如房子大小与房价的关系,在学习这个关系的时候,对于这个关系依然需要首先建立模型。这个其实十分类似于我们专业的过程,在研究控制方法之前首先需要研究对象,对对象进行建模。这样这节课理解起来就十分简单了,毕竟人工智能就是我们专业的研究方向之一,这些基础学习都是曾经学过的。
大学里学习了各种建模方法,用状态方程传递函数来描述对象,研究是否收敛,解状态方程参数来验证控制方法,用最小二乘来系统建模解参数等等,吴恩达这里刚开始介绍的机器学习,也是建立模型,然后通过机器学习来解模型参数,从而得出最优模型来实际应用。

模型建立

他是从最简单的线性模型开始的,即用二元一次方程来描述训练集。
通常对于一组二元一次方程描述的训练集来说可以描述为\left ( x\left ( i \right ), y\left ( i \right ) \right ), i = 1, ..., m,即训练集中数据对数记为mx为输入,y为输出,则这个模型可以描述为
![][0]:(http://latex.codecogs.com/gif.latex?h\left ( x \right ) = \theta {0}+\theta{1}\cdot x)

cost function

在上节课中提到评价标准P,即可以理解为这里的cost function,用来评价学习的有效性,这个有效性需要定量分析,所以cost function是个可定量计算的函数。怎样的学习是最有效的,最基本的衡量则是最接近理想结果的,所以课程中第一个提到的cost function就是用误差来做的,描述如下:
J\left ( \theta {0} ,\theta {1}\right ) = \frac{1}{2m}\sum{i=1}^{m}\left ( \hat{y{i}}-y_{i} \right )^{2} = \frac{1}{2m}\sum_{i=1}^{m}\left ( h_{\Theta }\left ( x_{i} \right )-y_{i} \right )^{2}
需要注意的是,这个cost function可以有很多种,不同的函数有不同的优势,这里只是提出的最简单的一个。
模型是一条直线,这个误差平方的cost function从图像上来看就是计算的模型求解参数直线与训练集所给出的点的距离平方和,这个平方和越小,即解出的模型参数构建的模型离训练集给出的真实值越近,即模型越真实。
吴恩达这里用了一个地理中的等高线来描述这个误差平方和的cost function与实际$$θ{0}, θ{1}$$的关系。确实是第一次见,很不错。

梯度下降法

有了模型,有了cost function,就可以去求解模型参数了。这个求解模型参数的过程就是现在所谓机器学习的算法。当然,由于现在的模型是最简单的二元一次线性方程,所以这个机器学习的算法和以前学习的模型求解并无太大区别。
这里介绍的学习算法是梯度下降法,就是从初始点开始,沿梯度下降最大的方向前进,直到最低点。
具体求解方法如下:
\theta_{j} :=\theta_{j} - \alpha \frac{\partial}{\partial \theta {j}}J\left ( \theta{0}, \theta_{1} \right )
其中α就是梯度下降的步长
这里有几个需要非常注意的地方:

  1. 梯度下降法达到的最低点有可能是次优解而不是最优解,这个学过高数的应该都知道的,只是这里在机器学习中依然需要面对这个问题。吴恩达暂时还没说解决方法。
  2. 梯度下降的步长如果很小的话,每次前进太小,导致训练时长增加。但是步长如果太大的话,可能会导致发散,无法收敛。所以步长选取需要非常注意。
  3. 对于所有的参数,需要同时更新。即对于两个\theta_0\theta_1在每次训练集学习时需要同时更新。不同时更新可能也能达到理想值,但是那不是真正的梯度下降法
    即是:

temp0 := \theta_{0} - \alpha \frac{\partial}{\partial \theta {0}}J\left ( \theta{0}, \theta_{1} \right )
temp1 := \theta_{1} - \alpha \frac{\partial}{\partial \theta {1}}J\left ( \theta{0}, \theta_{1} \right )
\theta_{0} := temp0
\theta_{1} := temp1

而不是:

temp0 := \theta_{0} - \alpha \frac{\partial}{\partial \theta {0}}J\left ( \theta{0}, \theta_{1} \right )
\theta_{0} := temp0
temp1 := \theta_{1} - \alpha \frac{\partial}{\partial \theta {1}}J\left ( \theta{0}, \theta_{1} \right )
\theta_{1} := temp1

具体的导数求解和高数学的一样,没什么问题。

第一周后续的课程都是在为后续将多变量模型铺垫的矩阵论,讲的比学校学习的简单的多了,没什么可说的。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,240评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,328评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,182评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,121评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,135评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,093评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,013评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,854评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,295评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,513评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,678评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,398评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,989评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,636评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,801评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,657评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,558评论 2 352

推荐阅读更多精彩内容