Date: 2020-06-04
Author: CW
前言:
有了该系列前面几篇的内容作为铺垫,是时候“行动”起来了!只有将模型成功训练出好的效果,才能证明算法是正确的。当然,训练过程中使用到的参数需要各人根据自己的环境去调整,这也是我们为何常说这是在“炼丹”了,因为通常都不可能把别人的代码copy下来就能成功跑出很好的效果。
如题,本文就模型训练部分的代码进行解析,在训练过程中,每隔一定周期就会在验证集上的进行评估,若相比于之前的训练结果更优,则保存下模型的权重。
全局变量与参数设定
下图中的参数可根据各人环境自行更改。
红框中的3个参数比较重要。iou_thresh代表预测框与gt的IoU超过多少时,就被认为预测正确;nms_thresh是指在生成预测框的后处理中,相互之间的IoU超过多少就会被抑制掉(NMS中的IoU阀值);score_thresh代表在像素点位置预测得到的score超过多少,这个像素点回归出来的预测框才会被认为是正例。
训练过程
先快速浏览下训练过程中的一些“套路”部分,即数据读取、模型加载、loss与优化器的设定、学习率的设置及其策略的定制等..
接下来开始进入训练迭代部分,对于下图的 gt_score、gt_geo 以及 ignored_map,如果不清楚它们的形式的话可以参考下该系列的第一篇文:EAST 算法超详细源码解析(一)、数据预处理与标签生成
然后是前向反馈以及对gt和对应预测结果的可视化。
对以下 d map 和 angle map 的可视化操作简单说明下。
这里对图像的可视化用到tensorboardX的add_image方法,而该方法要求图像是归一化的,因此需要对 d map 和 angle map 进行归一化处理,这个步骤可放在make_grid方法进行,这个方法是将一个batch的图像排列成网格展示,可以设置每行多少格(即展示多少张图,下图中的nrow参);而 range 参数相信大家也猜到它是干嘛的了,也就是归一化前变量值的取值范围,用于将变量归一化到 [0,1] 区间。
下一步就是loss的计算和反向传播更新权重了。
在loss计算这里,将angle loss的权重设为10,因为根据实践发现,angle loss的数量级通常比iou loss 和 classify loss小一些,想想也合理,因为在生活场景中,大部分文本框还是水平正置的,观察数据集的话也能了解到这一点。
如果对loss计算不清楚的可以参考该系列的第四篇文:EAST 算法超详细源码解析(四)、损失函数
另外,有一点也需要注意下,就是在反向传播更新了权重后,进行下一轮计算时别忘记先把当前的梯度清空,避免梯度积累。
然后,统计loss、打印loss相关的输出并且添加到tensorboardX的可视化中。
之后,每隔一定周期就在验证集上进行评估,评估的指标如前一篇文:EAST 算法超详细源码解析(五)、评估验证 所述,使用 F1-Score,同时将评估结果加入可视化视图。另外,每次评估时都会和之前获取的最优性能比较,若当前的较优,则更新这个最优值并且保存权重。
每个周期结束后,根据制定的学习率策略,更新下学习率。
最后,当训练结束时,关闭下打开的tensorboardX的SummaryWriter。
在验证集上进行评估
这部分的流程和训练部分的套路类似,需要注意的是要将模型权重固定住(model.eval())以及在计算过程中不产生梯度的传播(torch.no_grad)。
在这里,需要对每个batch的gt以及预测结果进行一些处理。对于gt,我们要将无效的筛除,根据labels的值处理即可,labels是在gt生成时预处理的;另外,模型输出的是score map 和 geo map,结合预设的score阀值和nms阀值,我们需要将其转换成预测框,get_boxes方法是在推断部分实现的,参考该系列的第二篇文:EAST 算法超详细源码解析(二)、模型推断与测试结果生成
下图中evaluate_method即计算F1-Score,在上一篇文中有解析。
最后统计计算结果并返回。
大结局
至此,EAST源码解析系列就迎来大结局了,这里附上该系列的其余篇幅:
最后,感谢阅读过里面每一字每一码的你们!(完结撒花~)