视觉SLAM笔记(61) 单目稠密建图

视觉SLAM笔记(61) 单目稠密建图

  • 1. 立体视觉
  • 2. 极线搜索与块匹配
  • 3. 高斯分布的深度滤波器


1. 立体视觉

相机,很久以来被认为是只有角度的传感器(Bearing only)
单个图像中的像素,只能提供物体与相机成像平面的角度以及物体采集到的亮度
而无法提供物体的距离(Range)

而在稠密重建,需要知道每一个像素点(或大部分像素点)的距离
那么大致上有以下几种解决方案:

  1. 使用单目相机,利用移动相机之后进行三角化,测量像素的距离
  2. 使用双目相机,利用左右目的视差计算像素的距离(多目原理相同)
  3. 使用 RGB-D 相机直接获得像素距离

前两种方式称为立体视觉(Stereo Vision),其中移动单目的又称为移动视角的立体视觉(Moving View Stereo)
相比于 RGB-D 直接测量的深度,单目和双目对深度的获取往往是“费力不讨好”的
需要花费大量的计算,最后得到一些不怎么可靠的深度估计

当然, RGB-D 也有一些量程、应用范围和光照的限制
不过相比于单目和双目的结果,使用 RGB-D 进行稠密重建往往是更常见的选择

而单目双目的好处,是在目前 RGB-D还无法很好应用的室外、大场景场合中
仍能通过立体视觉估计深度信息

从最简单的情况开始说起:
在给定相机轨迹的基础上,如何根据一段时间的视频序列,来估计某张图像的深度
换言之,不考虑 SLAM,先来考虑稍为简单的建图问题

假定有某一段视频序列,通过某种手段得到了每一帧对应的轨迹(当然也很可能是由视觉里程计前端估计所得)
现在

你可能感兴趣的:(视觉SLAM笔记)