import numpy as np
import matplotlib.pyplot as plt
x_data = [338,333,328,207,226,25,179,60,208,606]
y_data = [640,633,619,393,428,27,193,66,226,1591]
x = np.arange(-200,100,1)#bias
y = np.arange(-5,5,0.1)#weight
z = np.zeros((len(x),len(y)))
x,y = np.meshgrid(x,y)
# for i in range(len(x)-1):
# for j in range(len(y)-1):
# b = x[i]
# w = y[j]
# for n in range(len(x_data)):
# z[i][j] = z[i][j] + (y_data[n] - b - w * x_data[n])**2
#
# z[j][i] = z[j][i]/len(x_data)
b = 120
w = -4
lr = 1
iteration = 100000
b_history = [b]
w_history = [w]
lr_b=0
lr_w=0
for i in range(iteration):
b_gard = 0.0
w_gard = 0.0
for n in range(len(x_data)):
b_gard = b_gard - 2.0 * (y_data[n] - b - w*x_data[n])*1.0
w_gard = w_gard - 2.0 * (y_data[n] - b - w * x_data[n]) * x_data[n]
lr_b = lr_b + b_gard**2
lr_w = lr_w + w_gard ** 2
b = b - lr/np.sqrt(lr_b) * b_gard
w = w - lr/np.sqrt(lr_w) * w_gard
b_history.append(b)
w_history.append(w)
#plt.contourf(x,y,z,50,alpha)
plt.plot([-188.4],[2.67],'x',ms=12,markeredgewidth=3,color='orange')
plt.plot(b_history,w_history,'o-',ms=3,lw=1.5,color='black')
plt.xlim(-200,1100)
plt.ylim(-5,5)
plt.xlabel(r'$b$',fontsize=16)
plt.ylabel(r'$w$',fontsize=16)
plt.show()
Gradient Descent入门
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
相关阅读更多精彩内容
- [机器学习入门] 李宏毅机器学习笔记-3 (Gradient Descent ;梯度下降) Review 梯度下降...
- 在所有的教程中,不管是网上的资料还是书籍上。都说,想要学会ajax,需要提前学会html+css+javascri...
- 1.回顾 Debian,Slackware,Redhat Debian: Ubuntu Knopix Slackw...
- 1. 硬盘大小 120G ISO镜像: 硬盘分区:留出一些空间: 实在不成, 可安装完成以后,新增一块虚拟硬盘: ...
- #静静地练字# 墨铭奇妙独家首发 入门大全 你的入门选对了吗? 本文:约10+K字 建议阅读时间:收藏以后细细品味...