CS229 Week1 Linear Regression with-One Variable


title: CS229 Week1 Linear Regression with-One Variable
date: 2017-03-26 16:34:36
categories: ML/CS229
mathjax: true
tags: [Machine Learning,CS229]


吴恩达的Machine Learning

Machine Learning是Coursera上的一个课程。很受入门者的推崇。我在学习了BP算法(Back Propagation反向传播)之后开始观看。

第一周

1 Introduction

1.1 welcome

机器学习很有用也很有市场。

1.2 what is ML

  • 学习算法主要是监督学习和无监督学习
  • 如何选择学习算法

1.3 监督学习Supervised Learning

两个例子:

  • Regression回归问题(房价):连续值
  • Classification分类问题(癌症):离散值

1.4 无监督学习Unsupervised Learning 聚类算法

作用:不知道数据集的信息,机器来找到不同的聚类和结构关系
例子:

  • google news(相关新闻会聚集在一起)
  • 很多人的基因放在一起,来自动的辨认个体类型
  • 应用于机器的协同工作
  • 应用于社交网络分析
  • 应用于公司客户的细分市场,针对性营销
  • 应用于天文科学
  • 应用于嘈杂声音中的区分(鸡尾酒会算法)

2 单变量线性回归(Linear Regression with One Variable)

2.1 - Model Representation 模型表示

我们的第一个学习算法是线性回归算法。
例子:房价预测
通过单变量size of house和price的关系,求拟合函数,用于预测价格。

              training set
            learning algorithm
size of house ->hypothesis-> estimated price

h(x)=θ_0+θ_1*x

2.2 代价函数

在建模的过程中,引入的parameters \theta_0\theta_1的初始值会导致建模误差(modeling error),为了预测房价的准确,我们应该使得误差尽量小,于是引入cost function来衡量误差。
包括回归问题在内的大多数问题,cost function用误差平方代价函数都是很好用的:

cost function:
(θ_0,θ_1)= \frac{1}{2m} \sum_{i=1}^{m} (h(x_i)-y_i)^2

2.3 代价函数的直观理解

  • hypothesis:h(x)=θ_0+θ_1*x
  • Parameters:\theta_0\theta_1
  • Cost function:J(θ_0,θ_1)= \frac{1}{2m}\sum_{1}^{m}(h(x_i) - y_i)^2
  • Goal:minJ(\theta_0,\theta_1)
    Paste_Image.png

    简化假设:θ_0=0h(x)=θ_1*x,如此J(θ_1)变成一个二次函数,有最低点

2.4 代价函数的直观理解II

Paste_Image.png

等线图(contour plot):若不做简化,则价值函数就从平面二次函数变为三维中的曲面(MATLAB实现),就可以在自变量平面上画等值线

2.5 梯度下降 Gradient Descent

有了直观感受,我们的目标降低J(\theta)就是找到最低点。
注:正规方程(normal equations)也能求J函数的最小值,但是计算量大,因此用梯度下降法

梯度下降:设置(\theta_0,\theta_1,...\theta_n)的初始值,按照梯度下降(下降最多的方向)设置新的\theta

批量梯度下降法的公式:

Paste_Image.png

批量梯度下降法Batch gradient descent:每一步都用到了所有数据
\alpha:learning rate
\theta:同步更新

2.6 梯度下降的直观理解

梯度下降中,计算的\frac{\sigma J(\theta)}{\sigma \theta_j}可以说是斜率,当该值很小的时候,可能就是到达最小值了,但也可能是局部最小值。

收敛到一个局部最小解上。或者凸函数(convex function)是全局最小值

2.7 梯度下降的线性回归 Gradient Descent For Linear Regression

回到之前的房价问题:

Paste_Image.png

我们将梯度下降法运用到线性回归模型上,得到梯度下降的公式:

Paste_Image.png

此处为”批量梯度下降”,在梯度下降每一步中,在计算微分求导项时,我们需要进行求和运算

3 Linear Algebra Review 线性代数

略略略

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,692评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,482评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,995评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,223评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,245评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,208评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,091评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,929评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,346评论 1 311
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,570评论 2 333
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,739评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,437评论 5 344
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,037评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,677评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,833评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,760评论 2 369
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,647评论 2 354

推荐阅读更多精彩内容