ORB-SLAM2代码笔记(二):Frame

Frame

成员变量:

  1. ORB特征字典——用于重定位
  2. ORB特征提取句柄
  3. 时间戳
  4. 相机内参 去畸变参数
  5. 判断远近点深度阈值、相机基线长度
  6. 左右图像特征点
  7. 词袋模型参数,用于跟踪失败情况下重定位
  8. 特征点网格分配情况,以及当前帧相对世界坐标的位姿(包括位姿矩阵的更新,以及相机光心坐标)
  9. 相对世界坐标系的位姿
  10. 指向参考关键帧的指针

双目,RGB-D和单目对应重载的构造函数:

  1. 双目
    提取特征点同时开两个线程,0表示左图像,1表示右图像,两张图片提取的特征点会放在不同的vector中
thread threadLeft(&Frame::ExtractORB,                       //该线程的主函数
        this,                       //当前帧对象的对应指针
        0,                      //表示是左图图像
        imLeft);                    //图像数据
thread threadRight(&Frame::ExtractORB,this,1,imRight);
//等待两张图像特征点提取过程完成
threadLeft.join();
threadRight.join();

向量mvKeys中存放N个提取出的左图关键点,mDescriptor中存放提取出的左图描述子,右图的放在mvKeysRight和mDescriptorsRight中;

然后进行畸变矫正(由OpenCV完成),然后进行双目匹配(记录左图中特征点对应的右图坐标,以及恢复出的深度);

  1. RGB-D
    当成只有左侧图像,提取特征点
ExtractORB(0,imGray);
  1. 单目
    提取特征点和RGB-D相同,由于单目相机无法直接获得立体信息,所以这里要给这个右图像对应点的横坐标和深度赋值-表示没有相关信息
mvuRight = vector(N,-1);
mvDepth = vector(N,-1);
  1. 计算RGBD图像的立体深度信息
    void Frame::ComputeStereoFromRGBD(const cv::Mat &imDepth)
    根据像素坐标获取深度信息,如果深度存在则保存下来,这里还计算了假想右图的对应特征点的横坐标,这有什么用?
  2. 特征点反投影到三维世界坐标系中
    cv::Mat Frame::UnprojectStereo(const int &i)
    传入的是特征点的序号。
  3. 双目匹配,恢复深度
    void Frame::ComputeStereoMatches()
    这个函数比较复杂,目前还没看完
    \\7-19 更新
  • 这应该Frame类中最重要的一个算法,双目匹配以及恢复特征点的深度

  • 图像金字塔:0层是原始图。对0层高斯核卷积后,降采样(删除所有偶数行和偶数列)即可得到高斯金字塔第1层;插入0用高斯卷积恢复成原始大小,与0层相减,得到0层拉普拉斯金字塔,对应的是0层高斯金字塔在滤波降采样过程中丢失的信息,在其上可以提取特征。然后不断降采样,获得不同层的高斯金字塔与拉普拉斯金字塔,提取出的特征对应的尺度与金字塔的层数是正相关的。层数越高,对应的尺度越大,尺度不确定性越高。通过对图像的这种处理,我们可以提取出尺寸不变的的特征。但是在特征匹配时,需要考虑到提取特征点时对应的层数(尺度)。

  • 在匹配左右帧的特征点时,虽然已经经过了极线矫正,但是不能仅仅搜索极线对应的同一行像素点,而应该根据右目提取特征点时的尺度(金字塔层数),确定一个极线附近的扫描范围r,这个带状范围内均包含这个特征信息。

  • 算法流程

  1. 对左目相机每个特征点,通过描述子在右目带状搜索区域找到匹配点,当尺度越大是带状区域越大,可以理解,图像放大后一个特征点可能占几行,我是这样理解的

  2. 通过SAD匹配提高像素匹配修正量bestincR,SAD匹配是通过图像块差的绝对值之和来匹配的。

  3. 做抛物线拟合找谷底得到亚像素匹配deltaR;

  4. 计算视差,判断视差是否在范围内,如果在的话则 计算深度,匹配点真正位置。

  5. 剔除SAD匹配偏差较大的匹配特征点。

你可能感兴趣的:(ORB-SLAM2代码笔记(二):Frame)