batch_size, iteration迭代次数, epochs

假设样本数量为2000, batch_size为500
epochs一次指的是训练完全部样本一次,那么这里就是指训练完2000个样本
batch_size: 当样本数很大时, 有时需要将样本分为N个batch, 这个N就是nb_batch(batch数量), 此时一个batch中包含的样本数量即是batch_size
iteration迭代次数:一个epoch中训练batch的次数,即训练完一个batch就是iteration一次, 所以应该等于nb_batch(batch数量)。那么按照这里的假设, 一个epoch需要训练2000个样本, 一把batch需要训练500样本, 即一个iteration需要训练500样本, 那么训练完一个epoch需要4个iteration(2000/500)。
所以本人觉得这就是为什么相同epoch次数, batch_size大, 训练时间会比batch_size小时短。因为batch_size大, 训练完一个epoch迭代次数少。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容