[论文解读]D2-Net: A Trainable CNN for Joint Description and Detection of Local Features

以前好久的论文,这几天整理资料也翻出来了。应该是CVPR19的论文,讲的是同时做出来det和des。特征点定位精度不高,速度也很慢,不过对光照等鲁棒性非常高,如下图所示。


但是这个方法的弱点非常明显,定位精度不高,如下图红色圈出的地方,其实非常低的精度了。

实际上用这个进行重建的实验结果表示还不如SIFT好。
总结:坦白说这个方法几乎没有实际应用的场景,因为速度极其缓慢,而且精度很低,进行图像检索有更好的(DELF等),进行定位也有更快更好的(SIFT、ORB)。但是他有个特别好的地方是跳出了传统特征检测的范式,直接得到了det和des,从此以后很多工作都不会再专门学习一个keypoint detection去检测关键点位置尺度角度等等内容,而且这肯定也是必然趋势。另外还有很多其他类型的探索工作,推荐看看【Matching Features without Descriptors:Implicitly Matched Interest Points】【Long-term Visual Localization using Semantically Segmented Images】等挺多种的,不过D2Net属于其中结果最好的。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容