基本概念流程
模型保存与恢复
compute_gradients和apply_gradients原理
tf.identity && tf.control_dependencies
参数更新和学习率衰减
滑动平均:tf.train.ExponentialMovingAverage()函数
Adam和学习率衰减 (learning rate decay)
基本概念流程
模型保存与恢复
compute_gradients和apply_gradients原理
tf.identity && tf.control_dependencies
滑动平均:tf.train.ExponentialMovingAverage()函数
Adam和学习率衰减 (learning rate decay)