RANSAC算法与outlier

写在前面

  • 通常样本中包含正确数据(inliers,可以被模型描述的数据),也包含异常数据(outliers,偏离正常范围很远、无法适应数学模型的数据),即数据集中含有噪声。这些异常数据可能是由于错误的测量、错误的假设、错误的计算等产生的。

  • RANSAC为Random Sample Consensus的缩写,它是根据一组包含异常数据的样本数据集,计算出数据的数学模型参数,得到有效样本数据的算法。它于1981年由Fischler和Bolles最先提出 。

理解方法

给定样本数据:红+绿+黄 样本点, 要求根据这些数据点拟合椭圆

以ransac拟合椭圆为例,可以看出:

  • 黄色椭圆为拟合结果,
  • 红色点是由ransac随机选择用来拟合的数据点
  • 黑色点是除红色点外距离椭圆距离小于某一阈值的点,而绿色点是距离椭圆距离大于这一阈值的点
    那么,红色+黑色点即为内点,而绿色点为外点

RANSAC算法与outlier_第1张图片

RANSAC 算法详解

理想计算 给定两个点p1与p2的坐标,确定这两点所构成的直线,要求对于输入的任意点p3,都可以判断它是否在该直线上。初中解析几何知识告诉我们,判断一个点在直线上,只需其与直线上任意两点点斜率都相同即可。实际操作当中,往往会先根据已知的两点算出直线的表达式(点斜式、截距式等等),然后通过向量计算即可方便地判断p3是否在该直线上。
 
最小二乘法 生产实践中的数据往往会有一定的偏差。例如我们知道两个变量X与Y之间呈线性关系,Y=aX+b,我们想确定参数a与b的具体值。通过实验,可以得到一组X与Y的测试值。虽然理论上两个未知数的方程只需要两组值即可确认,但由于系统误差的原因,任意取两点算出的a与b的值都不尽相同。我们希望的是,最后计算得出的理论模型与测试值的误差最小。大学的高等数学课程中,详细阐述了最小二乘法的思想。通过计算最小均方差关于参数a、b的偏导数为零时的值。事实上,在很多情况下,最小二乘法都是线性回归的代名词。
 
遗憾的是,最小二乘法只适合与误差较小的情况。试想一下这种情况,假使需要从一个噪音较大的数据集中提取模型(比方说只有20%的数据时符合模型的)时,最小二乘法就显得力不从心了。例如下图,肉眼可以很轻易地看出一条直线(模式),但算法却找错了。

RANSAC算法与outlier_第2张图片

RANSAC算法的输入是一组观测数据(往往含有较大的噪声或无效点),一个用于解释观测数据的参数化模型以及一些可信的参数。RANSAC通过反复选择数据中的一组随机子集来达成目标。 被选取的子集被假设为局内点,并用下述方法进行验证:

  1. 随机选择一组样本子集,并假设所选择的子集都为局内点
  2. 寻找一个模型适应于假设的局内点,即所有的未知参数都能从假设的局内点计算得出。
  3. 用1中得到的模型去测试所有的其它数据,如果某个点适用于估计的模型,认为它也是局内点(inlier)。
  4. 如果有足够多的点被归类为假设的局内点,那么估计的模型就足够合理。
  5. 然后,用所有假设的局内点去重新估计模型(譬如使用最小二乘法),因为它仅仅被初始的假设局内点估计过。
  6. 最后,通过估计局内点与模型的错误率来评估模型。
    上述过程被重复执行固定的次数,每次产生的模型要么因为局内点太少而被舍弃,要么因为比现有的模型更好而被选用。

RANSAC算法与outlier_第3张图片

参考文档

RANSAC 算法解释(https://grunt1223.iteye.com/blog/961063)

你可能感兴趣的:(视觉SLAM实战进阶开发)