[论文解读]D2-Net: A Trainable CNN for Joint Description and Detection of Local Features

以前好久的论文,这几天整理资料也翻出来了。应该是CVPR19的论文,讲的是同时做出来det和des。特征点定位精度不高,速度也很慢,不过对光照等鲁棒性非常高,如下图所示。

[论文解读]D2-Net: A Trainable CNN for Joint Description and Detection of Local Features_第1张图片

但是这个方法的弱点非常明显,定位精度不高,如下图红色圈出的地方,其实非常低的精度了。
[论文解读]D2-Net: A Trainable CNN for Joint Description and Detection of Local Features_第2张图片

实际上用这个进行重建的实验结果表示还不如SIFT好。
总结:坦白说这个方法几乎没有实际应用的场景,因为速度极其缓慢,而且精度很低,进行图像检索有更好的(DELF等),进行定位也有更快更好的(SIFT、ORB)。但是他有个特别好的地方是跳出了传统特征检测的范式,直接得到了det和des,从此以后很多工作都不会再专门学习一个keypoint detection去检测关键点位置尺度角度等等内容,而且这肯定也是必然趋势。另外还有很多其他类型的探索工作,推荐看看【Matching Features without Descriptors:Implicitly Matched Interest Points】【Long-term Visual Localization using Semantically Segmented Images】等挺多种的,不过D2Net属于其中结果最好的。

你可能感兴趣的:([论文解读]D2-Net: A Trainable CNN for Joint Description and Detection of Local Features)