移动端视觉SLAM学习笔记 (一) 介绍

SLAM(同步定位和制图),基础概念原理就不介绍了,网上一搜一大堆。

SLAM目前的感知方式基本就是两种: 相机和激光雷达,也有结合去做的。移动端,也就是手机和平板,一般手机和平板也就是可见光相机,一些特殊的也会搭载红外结构光、激光雷达(不得不说苹果这方面做的很棒,SLAM、3D建模在移动端这块就是行业巅峰啊)。

之前用激光雷达和realsense T265做过相关的SLAM项目,项目所限,基本就是用现成开源库跑的,没有太过深入,最近准备研究一下。预算有限(没有公司支持,自己先搞着),也为了普及性,就用了自己的小米8手机作为实验平台,主要参数:

移动端视觉SLAM学习笔记 (一) 介绍_第1张图片

移动端视觉SLAM学习笔记 (一) 介绍_第2张图片 

 

前置摄像头是2000万,比后置高了800万,自拍的要求高啊( ̄﹏ ̄;)。但是为了测试方便,还是得用后置摄像头。

方案:

普通手机能用到的只有摄像头和IMU了,双目做不了,RGBD也没有,能做的视觉SLAM方式只有单目+IMU了。之前用RealSense T265试过ORB_SLAM3的算法,本来想做个安卓版的移植,直接挪到手机上用,但是看网上的大神们说对设备运行效率的要求很高,图像分辨率调到很低,帧率也就是一秒几帧的样子,而且效果也不佳。果断放弃移植,而且为了加深对视觉SLAM的理解,也没有项目压力,准备自己从头做,看看能做到什么程度吧。

目前流行的方案就是PTAM,也就是追踪(tracking)和建图(mapping)并行运行,大概思路就是,前端的”追踪“根据最近的几张图像进行实时计算位置,后台的”建图“持续优化地图,只在需要的时候进行同步。

你可能感兴趣的:(移动端视觉SLAM学习笔记,学习,slam)