#!/usr/bin/env python
# coding=utf-8
import tensorflow as tf
#设置W 和 b 的初始值
#
W = tf.Variable([.1], dtype=tf.float32)
b = tf.Variable([-.1], dtype=tf.float32)
#x的占位Tensor 用于输入对应数据
x = tf.placeholder(tf.float32)
#y的占位Tensor 用于输入对应数据
y = tf.placeholder(tf.float32);
#线性模型
#创建一个 linear_model 节点,记录操作
linear_model = W * x + b
#求差 开方
#损失模型
loss = tf.reduce_sum(tf.square(linear_model - y))
#使用 tf.Session类来连接客户端程序与C++,通过tf.Session.run()方法传递给底层执行
#Session 用来计算模型
sess = tf.Session()
#初始化模型的参数
#调用global_variables_initializer会初始化所有的Variable
init = tf.global_variables_initializer()
sess.run(init)
#用梯度下降算法
#对所有步骤中的所有变量使用恒定的学习率 0.001
optimizer = tf.train.GradientDescentOptimizer(0.001)
#损失模型的输出值是
train = optimizer.minimize(loss)
#x 和 y的输入数据组合
x_train = [1, 2, 3, 6, 8]
y_train = [2, 3, 4, 7, 9]
print loss
print x_train
print y_train
print ('W %s b: %s loss: %s' % (sess.run(W), sess.run(b), sess.run(loss, {x : x_train, y : y_train})))
for i in range(10000) :
# 每次用数组 x_train(x), y_train(y) 训练,可以不断更新W, b的值
sess.run(train, {x : x_train, y : y_train})
if i % 1000 == 0 :
print x_train
print y_train
print ('W %s b: %s loss: %s' % (sess.run(W), sess.run(b), sess.run(loss, {x : x_train, y : y_train})))
print loss
[Tensorflow] 神经网络基础学习
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 参考的文章《零基础入门深度学习(3) - 神经网络和反向传播算法》:https://www.zybuluo.com...
- 参考的文章《零基础入门深度学习(3) - 神经网络和反向传播算法》:https://www.zybuluo.com...
- 2.1二分类这里的二分类就是给定输入向量X,经过模型对应输出1或者0。这里二分类模型用的是logistic模型。 ...
- 本系列笔记文章意在对《神经网络与深度学习》一书中学到的知识点进行浓缩和总结,并加入自己的理解。 《神经网络与深度学...
- 吴修巨幅《灵山寺夜行图》有韩国娱乐圈人士透露韩国政界人士金先生曾出价4800万美元,有意收购曾被拒,据说此画全长2...