源码:线性拟合源码
#导入tensorflow包
import tensorflow as tf
#导入numpy包 作为矩阵运算的数学工具包
import numpy as np
#--------------------------------------------------------------------------------
#解决一个问题,从原始数据包开始,包括要分析的输入和输出
#从而实验 找到合适的模型 进而预测或分类
#--------------------------------------------------------------------------------
# 使用 NumPy 生成假数据(phony data), 总共 100 个点.
x_data = np.float32(np.random.rand(2, 100)) # 随机输入
y_data = np.dot([0.100, 0.200], x_data) + 0.300
#--------------------------------------------------------------------------------
#要训练的参数是什么
#要搭建的模型是什么
#--------------------------------------------------------------------------------
# 构造一个线性模型
b = tf.Variable(tf.zeros([1]))
W = tf.Variable(tf.random_uniform([1, 2], -1.0, 1.0))
y = tf.matmul(W, x_data) + b
#--------------------------------------------------------------------------------
#我们用什么样的评判标准和运算量去调参
#制定训练方案
#--------------------------------------------------------------------------------
# 最小化方差
loss = tf.reduce_mean(tf.square(y - y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
#--------------------------------------------------------------------------------
#初始化训练数据
#--------------------------------------------------------------------------------
# 初始化变量
init = tf.initialize_all_variables()
# 启动图 (graph)
sess = tf.Session()
sess.run(init)
#--------------------------------------------------------------------------------
#大量循环迭代
#按照训练模型(梯度下降)逐渐逼近结果参数
#从一个初始的误差,逐步到一个极小点的误差
#输出使得梯度下降的参数 也即被预测的参数 W和b
#--------------------------------------------------------------------------------
# 拟合平面
for step in xrange(0, 201):
sess.run(train)
if step % 20 == 0:
print step, sess.run(W), sess.run(b)
#得到最佳拟合结果W:[[0.100 0.200]], b:[0.300]
======================================================
梯度下降参考:
https://segmentfault.com/a/1190000011994447
个人总结:
如果给定输入和输出,同时我们找到合适的模型和参数范围,
那么我们要做的就是确定这个参数范围。
假如我们枚举参数范围内的所有数据,然后找到最接近样的的参数
结果是一定可以找得到的。所以理论是可行的。
只不过用数学手段(梯度下降),从一个初始参数逐步迭代到目标参数
尽量减少枚举量和运算量的方案
结果可能是最优解,也可能是次优解。