这两天在训练模型的时候遇到了一个奇怪的问题,我设置了每运行10次训练epoch运行一次评估epoch,结果这一次评估epoch运行的时间要比10次训练epoch长的多,而评估epoch的session中没有传入optimizer,是用tf.no_op替代,而这tf.no_op耗时相当长,记录一下此问题。
慎用tf.no_op()
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
推荐阅读更多精彩内容
- 原文链接:https://yq.aliyun.com/articles/178374 0. 简介 在过去,我写的主...