利用基于收缩损失的深度回归做跟踪算法

简称:DSLT(deep shrinkage loss Tracker)

论文地址:http://faculty.ucmerced.edu/mhyang/papers/eccv2018_rtsl.pdf

先看本文的效果


红色框是本文结果,可以看到本文结果最贴合。鲁棒性也较好


创新点:

   1    提出shrinkage loss 来解决样本极度不均衡的问题。实验表明,本loss不仅提升性能,而且还加速收敛。作者声称本 loss效果比预值为0.01的OHNM好

        原理上讲:简单样本的loss被大量压缩了.所以叫压缩loss

      shrinkage loss 实际上由 l2 loss和 l3 loss(Facal loss)启发,


a=10,c=0.2,当l<c时Ls与l2几乎不变,当l>c时,Ls大大小于l2, 这些简单样本的loss被大量压缩了.所以叫压缩loss

   2    利用残差的方式连接多层卷积。这种残差连接方案的效果通过消融实验有证实。在论文的5.3节


dslt红色是用了残差连接方案,DSLT_m是没有用,DSLT_34,DSLT_35是另外两种不同的连接方案


实现细节:

caffe toolbox in Matlab

i7 4.0GHz CPU

NVIDIA TITAN X GPU

VGG-16 backbone

1x1 convoluting layer to reduce the channels from 512 to 128(on conv5 3 and conv4 3)

 训练:adam

lr=8e-7 conv53

lr=2e-8 conv43,

when update, the lr is set to 2e-7 and 5e-9,

T=7,用前面7帧去预测后一帧图像得位置

标注用一个核大小为目标变长为0.1的2纬高斯函数生成

尺度方面, ratio=1.03,pyramid levels = 3,

5.7frames per second.

source code is :https://github.com/chaoma99/DSLT.

个人点评

复现思路:VGG 16做backbone,conv53与conv43做一些将channel然后做一个残差连接方案

标注的生成就用二维高斯模型来生成所谓的软标注

因为作者很巧妙的改动了loss和一个残差连接方案,改动量很小,这里除了可用matlab来实现,还可以用其他框架快速的做实验。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。