使用TensorFlow构建神经网络训练一元二次函数

环境:PyCharm 2.018.1.3 x64 ,Python 3.6 ,TensorFlow   version:1.8.0


经过神经网络的训练,用梯度下降算法来最小化误差(loss),则loss逐渐降低,如下图所示:


loss逐渐降低

代码如下:

import tensorflowas tf

import numpyas np

#构造添加一个神经层的函数

def add_layer(inputs,in_size,out_size,activation_function=None):

    Weights=tf.Variable(tf.random_normal([in_size,out_size]))

    biases=tf.Variable(tf.zeros([1,out_size])+0.1)#biases的建议值不为0,故加上0.1

    Wx_plus_b=tf.matmul(inputs,Weights)+biases

    if activation_functionis None:

        outputs=Wx_plus_b

    else:

        outputs=activation_function(Wx_plus_b)

    return outputs

#导入数据

x_data=np.linspace(-1,1,300,dtype=np.float32)[:,np.newaxis]

noise=np.random.normal(0,0.05,x_data.shape).astype(np.float32)

y_data=np.square(x_data)-0.5+noise

#None代表无论输入有多少都可以,因为输入只有一个特征,所以这里是1

xs=tf.placeholder(tf.float32,[None,1])

ys=tf.placeholder(tf.float32,[None,1])

#搭建网络

#输入层为1层、隐藏层为10层、输出层也为1层的神经网络

L1=add_layer(xs,1,10,activation_function=tf.nn.relu)#使用TensorFlow自带的激励函数tf.nn.relu

#此处的10为隐藏层的10个输出,将它作为输出层的输入;1则表示输出层只有一个输出

#计算所得的prediction的值即是所求的预测值

prediction=add_layer(L1,10,1,activation_function=None)

#计算预测值prediction和真实值的误差,对二者差的平方求和再取平均

loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1]))

#使用梯度下降算法来最小化误差loss,学习率为0.1

train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)

#初始化所有变量

init=tf.global_variables_initializer()

#定义Session,用来执行初始化操作

sess=tf.Session()

sess.run(init)

#训练

for iin range(1000):

    sess.run(train_step,feed_dict={xs:x_data,ys:y_data})

    if i %100 ==0:

        print(sess.run(loss,feed_dict={xs:x_data,ys:y_data}))


学自 莫烦PYTHON

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容