无人驾驶传感器融合系列(九)——基于相机目标追踪之关键点描述、匹配

无人驾驶传感器融合系列(九)——基于相机目标追踪之关键点描述、匹配

本章摘要:关键点检测出来之后,需要将其与其它图像上的关键点进行匹配,匹配的依据是什么了,这就需要涉及到关键点的描述了。根据关键点描述的数据值,好对不同关键点进行区别、匹配。本章概略性的讲解了,梯度直方图描述算子,二进制描述算子,匹配方法,匹配结果筛选等。

一、基于梯度方向直方图(HOG) 描述算子

HOG (Histograms of Oriented Gradients)主要的思想就是采用关键点周边像素的梯度来对关键点进行描述。具有代表性的算法就是SIFT (Scale-Invariant Feature Transform),其计算过程大概如下:

  1. First, keypoints are detected in the image using an approach called “Laplacian-Of-Gaussian (LoG)“, which is based on second-degree intensity derivatives. The LoG is applied to various scale levels of the image and tends to detect blobs instead of corners. In addition to a unique scale level, keypoints are also assigned an orientation based on the intensity gradients in a local neighborhood around the keypoint.
  2. Second, for every keypoint, its surrounding area is transformed by removing the orientation and thus ensuring a canonical orientation. Also, the size of the area is resized to 16 x 16 pixels, providing a normalized patch.

无人驾驶传感器融合系列(九)——基于相机目标追踪之关键点描述、匹配_第1张图片

  1. Third, the orientation and magnitude of each pixel within the normalized patch are computed based on the intensity gradients Ix and Iy.
  2. Fourth, the normalized patch is divided into a grid of 4 x 4 cells. Within each cell, the orientations of pixels which exceed a threshold on magnitude are collected in a histogram consisting of 8 bins.

无人驾驶传感器融合系列(九)——基于相机目标追踪之关键点描述、匹配_第2张图片
无人驾驶传感器融合系列(九)——基于相机目标追踪之关键点描述、匹配_第3张图片
5. Last, the 8-bin histograms of all 16 cells are concatenated into a 128-dimensional vector (the descriptor) which is used to uniquely represent the keypoint.

二、二进制描述算子

上面基于梯度方向直方图的描述算子,能够很好的应对缩放、旋转、亮度改变、对比度改变,但是速度欠佳,如果商业运用还会有专利费。
二进制描述算子速度更快,能够达到实时性,准确率只是稍微降低了一点点,所以更有运用前景。
无人驾驶传感器融合系列(九)——基于相机目标追踪之关键点描述、匹配_第4张图片
与HOG的主要区别是采用周边像素的强度值,而不是梯度,所以计算、匹配起来更快。关于具体算法研究,建议分别去查相关文献,这里只是提一下有个概念。在GitHub:SFND_2D_Feature_Tracking 中讲解了如何应用,以及它们它们的性能对比。
Currently, the most popular binary descriptors are BRIEF, BRISK, ORB, FREAK and KAZE (all available in the OpenCV library).

三、关键点的匹配

为了实现目标追踪,首先提取关键点,然后对关键点进行描述,然后就需要对帧与帧之间的关键点进行匹配了。
无人驾驶传感器融合系列(九)——基于相机目标追踪之关键点描述、匹配_第5张图片

差别计算

匹配的原则是什么了,那就是计算关键点描述子之间的差别,两个关键点描述子之间差别越小,匹配越佳。前面讲的描述子结果为一定长度的vector,这里的差别计算就是对描述子vector逐一元素计算差值,然后累和。主要有以下三种方法,SAD、SSD、 HD(主要用于二进制描述算子)。
无人驾驶传感器融合系列(九)——基于相机目标追踪之关键点描述、匹配_第6张图片

匹配方法

  • BFMatcher(Brute Force Matching ),强力匹配。比如第一张图片有M个关键点,第二张图片有N个关键点,强力匹配的思想就是拿第一张图片上的一个点与第二张上的所有关键点进行差别计算,差别最小的关键点则为匹配点。所以要匹配MxN次,所以当关键点数目比较多的时候速度就比较慢了。
  • FLANN(fast library for approximate nearest neighbors)采用KD-tree的高效数据存储结构,来寻找最小距离匹配点,搜素次数大大减少。

为了剔除不良匹配,往往会设置匹配阈值T,将大于此阈值的匹配点剔除掉。

匹配点选择

  1. cross check matching:为了减少错误匹配对, cross check matching采用双向匹配的方式,图片1匹配图片2,找到最佳匹配对;然后反过来在匹配一次。保留两次匹配中最佳匹配不变的那些匹配,最为最终匹配对。这种方式虽然增加了时间,但是大大提高了匹配效果。
  2. nearest neighbor distance ratio:主要的思想,不直接设置阈值T来过滤匹配,源图片上每个关键点,都会在目标图片上找到两个差别最小的匹配点,然后计算最佳、次佳之间的比值,如果比值超过了阈值(往往取0.8)则选择最佳匹配为匹配结果;否则则剔除此次匹配。

算法运用

算法的应用,详见github,SFND_2D_Feature_Tracking,还对各个算法的性能对比进行了比较。

文章说明:

Udacity 传感器融合课程笔记

你可能感兴趣的:(传感器融合)