TensorFlow 基础(5)

awesome-tensorflow

感知机(单层神经网络)

输入层 \{ x_1 x_2 \theta \}
输出层:
sign(x)

初始化权重

  • 初始化权重
  • 设计模型
  • 损失函数
    E = \frac{1}{2}(y - \hat{y})^2
    通过推导我们可以得到 \Delta W_j 变化率的公式
    \frac{\partial E}{\partial W_j} = -(y - \hat{y}) x_j
  • 优化更新权重
    W_j^{(t+1)} = W_j^{(t)} + \Delta W_j
    \Delta W_j = \eta(y - \hat{y}) x_j

基本流程

  1. 输入

    • 数据集 D
    • 学习率 \eta,\eta \in (0,1]
    • 停止条件: 误差率指定阈值 \epsilon 和最大迭代次数 T^k
  2. 初始化连接权重

  3. 输入样本(x_{i1} x_{i2} \cdots x_{im}, \hat{y}_i )

  4. 更新权重
    \Delta w = \eta(y_i - \hat{y}_i)x_i
    W^{(t+1)} = W^T + \Delta W
    \Delta \theta = \eta (y_i - \hat{y}_i)
    \theta^{(T_1)} = \theta^T + \Delta \theta

  5. 停止条件,判断是否满足条件如果满足条件,模型误差小于指定误差阈值或是迭代次数大于最大迭代次数

  6. 输出,如果满足条件就将模型作为输出
    y = f(\sum_{j=1}^k w_jx_j + \theta)

线性回归问题

线性回归通常都是用于预测问题,例如预测苹果的股价,天气预测。今天我们所采用优化算法为梯度下降,这个想必再熟悉不过了,梯度下降几乎是代表深度学习的优化算法的首选。

我们通常有关神经网络打发就是先准备数据集,这也是脏活和累活。

准备数据

points_num = 100
vectors = []
# 用 numpy 的正态随机分布函数生成 100 个点,这些点(x,y)坐标值x 和 y 关系对应线性方程 y = 0.1 * x + 0.5
# 权重为 0.1 偏差为 0.5

for i in range(points_num):
    x1 = np.random.normal(0.0, 0.66)
    y1 = 0.1 * x1 + 0.5 + np.random.normal(0.0,0.04)
    vectors.append([x1, y1])

这里我们需要通过根据采集数据点找到 y = 0.1 * x + 0.5 这条直线。这里通过np.random.normal(0.0,0.04)给函数值添加一些噪声。

x_data = [v[0] for v in vectors] # x 坐标(输入值)
y_data = [v[1] for v in vectors] # y 坐标(预期值)

# 图像 1:展示 100 随机数据点
plt.plot(x_data,y_data,'b*',label="Original data")
plt.show()

我们使用 matplot 将我们生成随机点显示出来,这样我们可以更加直观观察到这些点分布情况。通过观察这些点我们很容易发现他们规律。

初始化变量定义模型

W = tf.Variable(tf.random_uniform([1],-1.0,1.0)) # 初始化权重
b = tf.Variable(tf.zeros([1])) # 初始化 Bias
y = W * x_data + b #模型计算出来 y

这里我们通过tf.Variable 来定义变量,

定义损失函数

loss = tf.reduce_mean(tf.square(y - y_data))

这里我么使用损失函数为loss = \frac{\sum (y - \hat{y})^2}{m}

定义优化器

optimizer = tf.train.GradientDescentOptimizer(0.5) #设置学习率为 0.5 
train = optimizer.minimize(loss)

初始化变量

# 创建会话
sess = tf.Session()
# 初始化数据数据流图中所有变量
init = tf.global_variables_initializer()
sess.run(init)

global_variables_initializer()帮助我们初始化所有参数。

开始训练

steps = 20
for step in range(steps):
    # 优化每一步
    sess.run(train)
    # 打印出每一步的损失、权重和偏差
    print("step=%d loss=%f, [Weight=%f,Bias=%f]" % (step,sess.run(loss),sess.run(W),sess.run(b)))

我们看一下训练结果,当19步 loss 就到了 0.001560 从 weight 和 bias 的预测值可以看出已经很接近我们期望值 0.1 和 (偏移值)0.5

step=17 loss=0.001560, [Weight=0.103602,Bias=0.497746]
step=18 loss=0.001560, [Weight=0.103613,Bias=0.497745]
step=19 loss=0.001560, [Weight=0.103619,Bias=0.497745]

显示结果

plt.plot(x_data,y_data,'b*',label="Original data")
plt.title("Linear Regression using Gradient Descent")
plt.plot(x_data,sess.run(W) * x_data + sess.run(b), label="Fitted line")
plt.legend()
plt.show()

完整代码

#coding=utf-8
"""
线性回归
"""
import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf

# 构造数据
points_num = 100
vectors = []
# 用 numpy 的正态随机分布函数生成 100 个点,这些点(x,y)坐标值x 和 y 关系对应线性方程 y = 0.1 * x + 0.5
# 权重为 0.1 偏差为 0.5

for i in range(points_num):
    x1 = np.random.normal(0.0, 0.66)
    y1 = 0.1 * x1 + 0.5 + np.random.normal(0.0,0.04)
    vectors.append([x1, y1])

x_data = [v[0] for v in vectors] # x 坐标(输入值)
y_data = [v[1] for v in vectors] # y 坐标(预期值)

# 图像 1:展示 100 随机数据点
# plt.plot(x_data,y_data,'b*',label="Original data")
# plt.show()

# 用梯度下降来解决这个问题
# 构建线性回归模型
W = tf.Variable(tf.random_uniform([1],-1.0,1.0)) # 初始化权重
b = tf.Variable(tf.zeros([1])) # 初始化 Bias
y = W * x_data + b #模型计算出来 y

# 定义 loss function(损失函数)
# 对 Tensor 的所有维度计算 $(y - y_data)^2/points_num $
#
loss = tf.reduce_mean(tf.square(y - y_data))

# 用梯度下降优化器来优化 loss 函数
optimizer = tf.train.GradientDescentOptimizer(0.5) #设置学习率为 0.5 
train = optimizer.minimize(loss)

# 创建会话
sess = tf.Session()
# 初始化数据数据流图中所有变量
init = tf.global_variables_initializer()
sess.run(init)

# 训练 20 步
steps = 20
for step in range(steps):
    # 优化每一步
    sess.run(train)
    # 打印出每一步的损失、权重和偏差
    print("step=%d loss=%f, [Weight=%f,Bias=%f]" % (step,sess.run(loss),sess.run(W),sess.run(b)))
    
# 图像绘制所有点并且绘制出得到最佳拟合的曲线(直线)

plt.plot(x_data,y_data,'b*',label="Original data")
plt.title("Linear Regression using Gradient Descent")
plt.plot(x_data,sess.run(W) * x_data + sess.run(b), label="Fitted line")
plt.legend()
plt.show()

# 关闭会话
sess.close()

代码

https://github.com/zideajang/tf_in_action/tree/master/basic

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,463评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,868评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,213评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,666评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,759评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,725评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,716评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,484评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,928评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,233评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,393评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,073评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,718评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,308评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,538评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,338评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,260评论 2 352

推荐阅读更多精彩内容