在网上找资料时,发现一篇推文CVPR2019目标检测方法进展,重点介绍cvpr2019年目标检测亮眼文章,里面提到很多惊奇的改进思路,值得一看。
Feature Selective Anchor-Free Module for Single-Shot Object Detection
这篇论文是在RetinaNet上加上anchor-free分支,使用anchor-based和
anchor-free进行联合训练得到最终的FSAF模型。
输出anchor-free分支解释
在RetinaNet的输出端,FSAF在每层引入了额外的两层卷积层,分别用于基于anchor-free分支的分类及回归,分别生成一个 W × H × K classification output 和一个 W × H × 4 的 regression output。
输出详解
对于给定的一个实例,我们知道其类别k,及bounding box坐标
- 分类的输出
anchor-free就是标签没有使用anchor box,在 instance 的 0.2倍 box=(bl(p)) 内为 positive,提供的标签即为“车”这个 class id;在 0.5 倍 box=(bl(p)) 内进行忽略;其他都设为负。而 regression output 只针对于 0.2 倍的 instance box 进行训练,回归像素点(i,j)离边界的距离
比例区域,通过比例系数 e(e)=0.2和e(i)=0.5控制。
-
框回归的输出
回归输出的ground truth是与类别无关的4个offset maps,实例只作用于offeset maps上的有效区域.对于该区域内的每个像素,用一个四维的向量表示映射框
参考
CVPR2019 | 目标检测 FSAF:为金字塔网络的每一层带去最好的样本
论文阅读笔记四十六:Feature Selective Anchor-Free Module for Single-Shot Object Detection(CVPR2019)