RetinaNet本质上不是一个新的网络结构,而是一种新的应对正负样本严重不平衡的方法。
RetinaNet作者提出一种新的损失函数:focal foss,这个损失函数是在标准交叉熵损失基础上修改得到的。这个函数可以通过减少易分类样本的权重,使得模型在训练时更专注于稀疏的难分类的样本;防止大量易分类负样本在训练中压垮检测器。为了证明focal loss的有效性,作者设计了一个dense detector:RetinaNet,并且在训练时采用focal loss训练。实验证明RetinaNet不仅可以达到one-stage detector的速度,也能超过现有two-stage detector的准确率。
论文译文:cv-papers/RetinaNet.md at master · yizt/cv-papers · GitHub
论文原文:Focal Loss for Dense Object Detection
代码实现:
Caffe2(官方实现) - https://github.com/facebookresearch/Detectron/tree/master/configs/12_2017_baselines
PyTorch - https://github.com/kuangliu/pytorch-retinanet
Keras - https://github.com/fizyr/keras-retinanet
MXNet - https://github.com/unsky/RetinaNet
相关阅读:FAIR最新视觉论文集锦:FPN,RetinaNet,Mask 和 Mask-X RCNN(含代码实现) | 雷锋网