Feature Selective Anchor-Free Module for Single-Shot Object Detection

在网上找资料时,发现一篇推文CVPR2019目标检测方法进展,重点介绍cvpr2019年目标检测亮眼文章,里面提到很多惊奇的改进思路,值得一看。

Feature Selective Anchor-Free Module for Single-Shot Object Detection

这篇论文是在RetinaNet上加上anchor-free分支,使用anchor-based和
anchor-free进行联合训练得到最终的FSAF模型。

输出anchor-free分支解释

在RetinaNet的输出端,FSAF在每层引入了额外的两层卷积层,分别用于基于anchor-free分支的分类及回归,分别生成一个 W × H × K classification output 和一个 W × H × 4 的 regression output。

输出详解

对于给定的一个实例,我们知道其类别k,及bounding box坐标

所以下图中,对于‘car’这个实体,对于第l层的尺寸为
  1. 分类的输出
    anchor-free就是标签没有使用anchor box,在 instance 的 0.2倍 box=(bl(p)) 内为 positive,提供的标签即为“车”这个 class id;在 0.5 倍 box=(bl(p)) 内进行忽略;其他都设为负。而 regression output 只针对于 0.2 倍的 instance box 进行训练,回归像素点(i,j)离边界的距离

在训练时,该实例可以被放到任意一层中。定义b在Pl层上的映射为

网络中关于实体的有效区域为:

及忽略区域

比例区域,通过比例系数 e(e)=0.2和e(i)=0.5控制。

  1. 框回归的输出

    回归输出的ground truth是与类别无关的4个offset maps,实例只作用于offeset maps上的有效区域.对于该区域内的每个像素,用一个四维的向量表示映射框
    分别代表当前像素与上,左,下,右边的距离。

在进行Inference时,需要将分类及回归分支的预测结果进行解码,假设对于某个位置(i,j),预测的偏移量为

,则预测得到的距离为

,同时预测得到的映射框的左上角及右下角的位置为

参考

CVPR2019 | 目标检测 FSAF:为金字塔网络的每一层带去最好的样本
论文阅读笔记四十六:Feature Selective Anchor-Free Module for Single-Shot Object Detection(CVPR2019)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容