【视觉 SLAM 1】 视觉SLAM- RGBD 加 语义分割 1 (需要RGBD相机)

用深度学习技术分析RGBD数据,实现三维物体分类  视觉SLAM

附言--前文涉及单目视觉,立体视觉。  

全向(全景)视觉有待进一步介绍,介绍了标定知识。

    RGBD视觉本文简要介绍

0 前言 SLAM

SLAM (simultaneous localization and mapping),也称为CML (Concurrent Mapping and Localization), 即时定位与地图构建,或并发建图与定位。 SLAM最早由Smith、Self和Cheeseman于1988年提出。 由于其重要的理论与应用价值,被很多学者认为是实现真正全自主移动机器人的关键。 SLAM问题可以描述为: 机器人在未知环境中从一个未知位置开始移动,在移动过程中根据位置估计和地图进行自身定位,同时在自身定位的基础上建造增量式地图,实现机器人的自主定位和导航。 导弹 SLAM-ER的正式名称为增程响应型防区外对陆攻击导弹,它可在白天、夜间和恶劣天候下进行超视距精确攻击


1 RGBD视觉SLAM

【视觉 SLAM 1】 视觉SLAM- RGBD 加 语义分割 1 (需要RGBD相机)_第1张图片


视觉SLAM算法

1、orbslam 是14-15年被一个西班牙博士做的,目前还在做,最近又发了新文章:Probabilistic Semi-Dense Mapping from Highly Accurate Feature-Based Monocular SLAM。
orbslam可以看做是PTAM的一个延伸。ptam想必做visual slam 的都知道,它是第一个将tracking和mapping分成两个线程实现的实时slam系统,07年出来的时候很惊艳。几乎成立后来feature-based slam方法的标准。orbslam 算是这个思路的延伸,于ptam相比它又加了一个loopclosing的线程。这个系统基于ptam,个人感觉效果也更好一些(毕竟ptam相对较老),整合了covisible graph,基于bagofwords 做relocalization等技术。

常见的一些开源代码(高博整理):[转载]
* rtabslam https://github.com/introlab/rtabmap_ros#rtabmap_ros 
* ORB-slam https://github.com/raulmur/ORB_SLAM 
* rgbd-slam-v2 https://github.com/felixendres/rgbdslam_v2 
* lsd-slam https://github.com/tum-vision/lsd_slam 
* dvo-slam https://github.com/tum-vision/dvo_slam 
* hector-slam https://github.com/tu-darmstadt-ros-pkg/hector_slam 
* svo https://github.com/uzh-rpg/rpg_svo

SLAM研究体系分类

【视觉 SLAM 1】 视觉SLAM- RGBD 加 语义分割 1 (需要RGBD相机)_第2张图片


2  Convolutional-Recursive深度学习3 d对象分类

【视觉 SLAM 1】 视觉SLAM- RGBD 加 语义分割 1 (需要RGBD相机)_第3张图片
三维传感技术的最新进展有可能轻松地记录颜色和深度图像可以提高目标识别。 最新的方法依赖于这个新的3 d形态非常精心设计的功能。 我们引入一个模型基于卷积和递归神经网络(CNN和RNN)学习的特点和分类的RGB-D图像。 “CNN层学习低级平移不变的特性,然后给出输入多个fixed-tree RNNs为了组成高阶特性。 RNNs可以看作是结合卷积和汇集成一个高效、分级操作。 我们的主要结果是,甚至RNNs随机权重组成强大的功能。 我们的模型获得的性能标准”RGB-D对象数据集时更准确和更快的训练和测试期间比两层cnn等架构。


例对象图像

【视觉 SLAM 1】 视觉SLAM- RGBD 加 语义分割 1 (需要RGBD相机)_第4张图片




你可能感兴趣的:(计算机视觉,图像处理,位姿测量,视觉导航,视觉SLAM)