神经网络优化
- 激活函数
- relu函数:
tf.nn.relu()
- sigmoid函数
tf.mm.sigmoid()
- tanh函数
tf.nn.tanh()
-
神经网络的复杂度:一般用NN层数和NN参数的个数表示:层数 = 隐藏层的层数+1个输出层;总参数=总w+总b
- 优化
- 损失函数:预测值(y)与已知答案(y_)的差距有三种方式优化:
①. mse(均方误差法)
②. 自定义
③. ce(交叉熵) - 均方误差 mse:
loss_msg = tf.reduce_mean(tf.square(y_,y))