梯度下降

梯度下降

1.梯度

在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。函数f(x,y), 分别对x,y求偏导数,求得的梯度向量grad f(x,y)或者▽f(x,y)=∂f/∂xi+∂f/∂yj。对于在点(x0,y0)的具体梯度向量就是▽f(x,y)的几何意义是函增加最快的方向,沿着梯度方向,容易找到函数的最大值

2.梯度下降

根据梯度向量可知沿着梯度向量相反的方向,就是函数减小最快的方向.

3.损失函数loss/cost function

损失函数是一个自变量为算法的参数,函数值为误差值的函数.同一个损失函数的两个参数(η,ε)设置的不同,会产生不同的拟合曲线,最后的结果也不相同。(η影响迭代次数,η小一些,迭代次数多,花费时间长,但找到的点接近极小值点,η大的话,花费时间短,但找到的值误差大,ε可以控制迭代次数,当Δx<ε时,停止迭代)

3.梯度下降法-步骤(一元函数)

1.假设函数y=f(x) 只有一个极小点。初始给定参数为 X0。从这个点如何搜索才能找到原函数的极小值点?

方法

1.首先设定一个较小的正数η,ε.

2.求当前位置处的各个偏导数:▽f(x)=∂f/∂x*i

3.修改当前函数的参数值,公式如下:xi+1=xi-η∂f/∂x(xi),其中-η∂f/∂x(xi)绝对值为Δx

4.如果参数变化量Δx小于ε,退出;否则返回2。

实例(y=(x-2.5)²+3)

1.首先设定一个较小的正数η=0.9,ε=0.01,初始给定参数为 X0=-4

2.▽f(x)=∂f/∂x=2x-5,在 X0=-4时,-η∂f/∂x(x0)=11.7,Δx>ε

3.修改当前函数的参数值,x1=x0-η∂f/∂x(x0)=7.7,-η∂f/∂x(x1)=-9.36,Δx>ε

修改当前函数的参数值,x2=x1-η∂f/∂x(x1)=-1.66,-η∂f/∂x(x2)=7.488,Δx>ε

修改当前函数的参数值,x3=x2-η∂f/∂x(x2)=5.828,-η∂f/∂x(x3)=-5.9904,Δx>ε

修改当前函数的参数值,x4=x3-η∂f/∂x(x3)=-0.1624,-η∂f/∂x(x4)=4.79232,Δx>ε

修改当前函数的参数值,x5=x4-η∂f/∂x(x4)=4.62992,-η∂f/∂x(x5)=-3.833856,Δx>ε

修改当前函数的参数值,x6=x5-η∂f/∂x(x5)=0.796064,-η∂f/∂x(x6)=3.0670848,Δx>ε

修改当前函数的参数值,x7=x6-η∂f/∂x(x6)=3.8631488,-η∂f/∂x(x7)=-2.45366784,Δx>ε

修改当前函数的参数值,x8=x7-η∂f/∂x(x7)=1.40948096,-η∂f/∂x(x8)=1.962934272,Δx>ε

修改当前函数的参数值,x9=x8-η∂f/∂x(x8)=3.37241523,-η∂f/∂x(x9)=-1.570347414,Δx>ε

修改当前函数的参数值,x10=x9-η∂f/∂x(x9)=1.802067816,-η∂f/∂x(x10)=1.2562779312,Δx>ε

修改当前函数的参数值,x11=x10-η∂f/∂x(x10)=3.0583457472,-η∂f/∂x(x11)=-1.00502234496,Δx>ε

修改当前函数的参数值,x12=x11-η∂f/∂x(x11)=2.0533233974,-η∂f/∂x(x12)=0.80401788468,Δx>ε

修改当前函数的参数值,x13=x12-η∂f/∂x(x12)=2.85734128208,-η∂f/∂x(x13)=-0.64321430774,Δx>ε

修改当前函数的参数值,x14=x13-η∂f/∂x(x13)=2.2141269743,-η∂f/∂x(x14)=0.51457144626,Δx>ε

修改当前函数的参数值,x15=x14-η∂f/∂x(x14)=2.72884118926,-η∂f/∂x(x15)=-0.3295313125,Δx>ε

修改当前函数的参数值,x16=x15-η∂f/∂x(x15)=2.3169270486,-η∂f/∂x(x16)=0.0411914141,Δx>ε

修改当前函数的参数值,x17=x16-η∂f/∂x(x16)=2.6464583611,-η∂f/∂x(x17)=-0.26362504998,Δx>ε

修改当前函数的参数值,x18=x17-η∂f/∂x(x17)=2.3828333111,-η∂f/∂x(x18)=0.21090004002,Δx>ε

...........

修改当前函数的参数值,x32=x31-η∂f/∂x(x31)=2.49485016944,-η∂f/∂x(x18)=0.009269695,Δx<ε

4.退出

代码实现如下:(附图)


运行结果如下:

7.700000000004707

-1.6599999999606894

5.8279999999828505

-0.16239999996558652

4.629919999973978

0.7960640000415111

3.8631487999643035

1.4094809600324645

3.3724152319707414

1.8020678144297122

3.0583457484625356

2.0533234012218884

2.8573412790176036

2.2141269767810314

2.7286984185734866

2.317041265136325

2.6463669878884524

2.3829064096867505

2.5936748722497107

2.4250601021953457

2.5599519182364396

2.452038465406762

2.5383692276697047

2.469304617858551

2.524556305711471

2.4803549554275364

2.5157160356554833

2.4874271714723264

2.510058262817253

2.491953389744509

2.506437288197109

2.4948501694406247

initial x = -4

arg min f(x) of x = 2.4948501694406247

f(x) = 3.0000265207547905

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,386评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,142评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,704评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,702评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,716评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,573评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,314评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,230评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,680评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,873评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,991评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,706评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,329评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,910评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,038评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,158评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,941评论 2 355

推荐阅读更多精彩内容

  • 什么是梯度下降?在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最...
    烨枫_邱阅读 2,128评论 0 7
  • 学号:17020150034 姓名:于明轩 转自:https://www.cnblogs.com/pinar...
    轩_07ad阅读 197评论 0 0
  • http://www.cnblogs.com/pinard/p/5970503.html 在求解机器学习算法的模型...
    吃番茄的土拨鼠阅读 1,651评论 0 5
  • 1.梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数...
    kang_james阅读 1,158评论 1 2
  • 一、什么是梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。 ...
    owolf阅读 809评论 0 13