global_step = tf.Variable(0, trainable=False)
learning_rate = tf.train.exponential_decay(config.base_learning_rate, global_step,
decay_steps=config.decay_steps,
decay_rate=config.decay_rate,
staircase=True)
optimizer = tf.train.AdamOptimizer(learning_rate) ##.minimize(loss_val, global_step)
gradients = optimizer.compute_gradients(loss_val)
capped_gradients = [(tf.clip_by_value(grad, -5., 5.), var) for grad, var in gradients if grad is not None]
train_op = optimizer.apply_gradients(capped_gradients, global_step)
TensorFlow 梯度截断
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- TensorFlow从0到N专题入口 上一篇1 深度神经网络我们知道,通过追加隐藏层来构建更加“智能”的深度神经网...
- TensorFlow从0到1系列回顾 上一篇 5 TF轻松搞定线性回归,我们知道了模型参数训练的方向是由梯度下降算...
- 公司有些游戏业务在海外上线,因此需要使用aws来部署服务器,从而使外国友人也能愉快地玩我们司的游戏。 在海外自建机...