线性回归及梯度下降法

  • 回归分析:用来建立方程模拟两个或者多个变量之间如何关联
    被预测的变量叫:因变量,输出
    用来进行预测的变量叫:自变量,输入


    hθ(x) = θ01x
    这个方程对应的图像是一条直线,称为回归线。其中,θ1为回归线的斜率,θ0为回归线的截距

  • 代价函数(cost Function)

  • 最小二乘法:

  • 真实值y,预测值hθ(x),则误差为(y-hθ(x))2

  • 找到合适的参数,使得误差平方和:
    \quad\quad\quad\quad\quad J(θ_0,θ_1) =\frac{1}{2m} \textstyle\sum_{i=1}^{m}(y^i-h_θ(x^i))^2 最小
    \quad\quad\quad\quad\quad【注:\frac{1}{2}可有可无,主要是为了求导和平方的2抵消】

    线性回归


  • 相关系数
    我们使用相关系数去衡量线性相关性的强弱
    \quad\quad\quad\quad\quad r_{xy} = \frac{\textstyle\sum(X_i-\bar{X})(Y_i-\bar{Y})}{\sqrt{\textstyle\sum(X_i-\bar{X})^2 \textstyle\sum(Y_i-\bar{Y})^2}}

  • 决定系数
    相关系数R(coefficient of determination)是用来描述两个变量之间的线性关系的,但决定系数的适用范围更广,可以用于描述非线性或者有两个及两个以上的相关关系。它可以用来评价模型的效果

\quad总平方和(SST) : \textstyle\sum_{i=1}^{n}(y_i-\bar{y})^2y_i是真实值,\bar{y}是真实值的平均值】
\quad回归平方和(SSR) :\textstyle\sum_{i=1}^{n}(\hat{y}-\bar{y})^2\hat{y}是预测值】
\quad残差平方和(SSE):\textstyle\sum_{i=1}^{n}(y_i-\hat{y})^2
\quad它们三者的关系是:SST=SSR+SSE

\quad决定系数: R^2 = \frac{SSR}{SST} = 1-\frac{SSE}{SST}R^2的值越接近1,说明它们之间的关系越接近于线性的关系,越接近0就越不接近于线性关系】

  • 梯度下降法:
    有这么一个函数 J(θ_0,θ_1)minJ(θ_0,θ_1)
    \quad1. 初始化θ_0,θ_1
    \quad2. 不断改变θ_0,θ_1,直到J(θ_0,θ_1) 到达全局最小值,或局部极小值
    图1
图2

θ_0,θ_1 取不同初始值的变化结果,如图1取值,然后不断改变θ_0,θ_1,直到J(θ_0,θ_1) 到达全局最小值,如图2取值,然后不断改变θ_0,θ_1,直到J(θ_0,θ_1) 到达局部极小值

repeat until convergence {
θ_j:= θ_j- α\frac{∂}{∂θ_j}J(θ_0,θ_1) (j=0 ,j=1)【α指的是学习率】
}

正确做法 :同步更新
temp0:= θ_j- α\frac{∂}{∂θ_j}J(θ_0,θ_1) (j=0 ,j=1)
temp1:= θ_j- α\frac{∂}{∂θ_j}J(θ_0,θ_1) (j=0 ,j=1)
θ_0:=temp0
θ_1:=temp1

不正确做法:
temp0:= θ_j- α\frac{∂}{∂θ_j}J(θ_0,θ_1) (j=0 ,j=1)
θ_0:=temp0
temp1:= θ_j- α\frac{∂}{∂θ_j}J(θ_0,θ_1) (j=0 ,j=1)
θ_1:=temp1

\quad现在假设只有一个参数θ_1,公式如下,现在看图3中的曲线,当我们的取①处的θ_1值,那么我们计算出来的斜率是负数,α学习率为正数,相乘就为负数,则θ_1减去这个负值以后就变大了,赋给θ_1θ_1的取值大了,现在到了②处,计算出来的斜率还是负数,α学习率为正数,相乘就为负数,则θ_1减去这个负值以后又变大了,接下来到了③处,计算出来的斜率还是正数,α学习率为正数,相乘就为正数,则θ_1减去这个正值以后变小了,则下次取值一定在③的左侧,都会忘最小值靠近。【学习率的值不能太小(变化会太慢),也不能太大(变化会太大),可以多尝试,找到比较合适的 0.1,0.03,0.003,0.001........等等】

图3

  • 用梯度算法来求解线性回归:

\quad\quad\quad\quad\quad\quad\quad j=0: α\frac{∂}{∂θ_0}J(θ_0,θ_1) = \frac{1}{m}\textstyle\sum_{i=1}^{m}(h_θ(x^i)- y^i)
\frac{∂}{∂θ_j}J(θ_0,θ_1) =
\quad\quad\quad\quad\quad\quad\quad j=1: α\frac{∂}{∂θ_1}J(θ_0,θ_1) = \frac{1}{m}\textstyle\sum_{i=1}^{m}(h_θ(x^i)- y^i)
repeat until convergence {
θ_0:= θ_0- α \frac{1}{m}\textstyle\sum_{i=1}^{m}(h_θ(x^i)- y^i)
θ_1:= θ_1- α \frac{1}{m}\textstyle\sum_{i=1}^{m}(h_θ(x^i)- y^i)·x^i
}


梯度算法可能会陷入局部最小值:



梯度下降算法的代价函数是凸函数,所以会一直往最小值走

梯度下降算法的代价函数

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,634评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,951评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,427评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,770评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,835评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,799评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,768评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,544评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,979评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,271评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,427评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,121评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,756评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,375评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,579评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,410评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,315评论 2 352