视觉SLAM中动态场景剔除总结

目前看了两篇论文总结一下:

  1. DS-SLAM A Semantic Visual SLAM towards dynamic environments (2018):这篇文章基于ORB_SLAM2, 利用帧间图像的光流跟踪,进行一致性检验(利用了基础矩阵,判断点极线距离的大小),找到运动的像素点。同时另开辟一个线程做Segmet 场景语义分割(只能分割20种物体),认为人是可能运动的物体,如果运动的像素点在“人”的语义内,则把整个“人”内的ORB特征全部剔除掉,不参与跟踪优化。本文另外一个创新点是:又开辟一个线程做八叉树地图,利用log add评分法,直到一个体素内的分值超过一个阈值才会加入到地图中。同时八叉树地图的体素用不同颜色表示。不同颜色表示不同的语义信息。
  2. Improving RGB-D SLAM in dynamic environments: A motion removal approach(2017RA System):本文基于RGB-D system开发,利用两帧彩色图估计出他们的基础矩阵,然后将上一帧彩色图利用基础矩阵变换到当前彩色图,找到动态的点,之后用例子滤波跟踪这部分的点。第二步用矢量量化 深度图(相当于语义分割)。利用跟踪到的动态点来剔除语义分割的地图。

你可能感兴趣的:(SLAM工作)