E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SLam学习
[
SLAM学习
]ORB_SLAM2中的Tracking的单目Monocular问题汇总
mVelocity(速度)mVelocity=mCurrentFrame.mTcw*LastTwc;1Tracking初始化列表c++:作用,初始化列表,后面的表达式用于初始化它的成员变量,或者基类的成员变量classA{public:A():i(123)/////相当于给i赋值{}Tracking(System*pSys,ORBVocabulary*pVoc,FrameDrawer*pFrame
苏源流
·
2020-07-27 16:55
SLAM
视觉SLAM
位姿测量
ORB
SLAM学习
笔记7(ORBextractor)
voidORBextractor::ComputeKeyPointsOctTree(vector>&allKeypoints)图像提取特征点的范围图像的矩圆patchstaticfloatIC_Angle(constMat&image,Point2fpt,constvector&u_max)这个函数主要就是计算这个圆patch的图像矩,计算方向向量ORBextractor.h/***Thisfil
Bobsweetie
·
2020-07-27 14:24
ORBSLAM2
SLAM学习
资料汇总-超全
SLAM学习
与开发经验分享导语毫无疑问,SLAM是当前最酷炫的技术.在这里,我给大家分享一些在学习SLAM的过程中的一些资料与方法(不断更新中...)AR开发者社区:目录入门基础进阶优秀文章技术博客网站与研究组织书籍与资料
刘二毛
·
2020-07-27 14:46
AR/VR
SLAM学习
笔记(四)定位
原创博客:http://blog.csdn.net/renshengrumenglibing?viewmode=contents机器人定位的目的是为了知道“自己在什么地方”,目前,机器人定位的方法可以分为非自主定位与自主定位两大类。所谓非自主定位是在定位的过程中机器人需要借助机器人本身以外的装置如:全球定位系统(GPS)、全局视觉系统等进行定位;自主定位是机器人仅依靠机器人本身携带的传感器进行定位
走过_冬天
·
2020-07-27 14:46
机器学习
视觉
slam学习
资料
一直想写博客,一来是实验室太忙,二来是自己初入视觉slam,怕误人子弟。所以一直没写,但是实验室的同学说我可以介绍一些基础给那些刚入门的人参考。那么从今天开始我就开始陆陆续续的把我所了解的visualslam写给大家。希望一些大牛能指正!这篇博客就把我自己整理的资料贴出来,供大家参考。(1)orb_slam官网(网站最后有5篇论文,价值很高)http://webdiis.unizar.es/~ra
金木炎
·
2020-07-27 12:16
slam学习
视觉SLAM初识
SLAM学习
涉及很多数学上的专业知识以及计算机视觉,图像处理等很多专业性极强的知识。不要慌,只要肯沉得下心,入门应该不是难事。最开
m0_37702666
·
2020-07-16 03:36
SLAM学习
| Ubuntu16.04 下从零开始配置环境并运行ORB-SLAM2(TUM, ROS+USB, 自制数据集)
SLAM学习
|Ubuntu16.04下从零开始配置环境并运行ORB-SLAM2(TUM,ROS+USB,自制数据集)1Ubuntu16.04下配置安装ORB-SLAM21.1ORB-SLAM2简介1.2
Chen_Tianyang
·
2020-07-15 21:42
SLAM
SLAM学习
--------相机位姿表示-李群李代数
slam求解相机的位姿求解核心思想:将有约束的李群问题转换成无约束的李代数问题,然后使用高斯牛顿算法或者LM(列文伯格-马夸尔特法)求解。人们找了很多以相机位姿为变量的误差函数,比如光度误差,重投影误差,3D几何误差等等,希望使得误差最小,使用BA(又称位最小化重投影误差),进而求得比较准确的相机位姿。举一个重投影例子:T∗=min12∑i=0n||ui−1siKTPi||2(1)Pi是3D点,u
Darlingqiang
·
2020-07-15 17:10
SLAM
视觉
SLAM学习
笔记——目录与参考
但感觉自己对于一些细节方面的知识点似懂非懂、不求甚解,于是听从了实验室小伙伴的建议,在博客上对
SLAM学习
内容进行总结和整理。也是一种自我监督的方式把,将书中那些还不理解的、简单略过的内容一一攻克。
Manii
·
2020-07-14 20:05
视觉SLAM
SLAM学习
之路(三)--旋转向量与欧拉角
一、旋转向量发明目的:希望有一种方式可以紧凑地描述旋转和平移,如用一个三维向量表达旋转,用六维向量表达变换。任意坐标系的旋转,都可以用一个旋转轴和一个旋转角刻画。可以使用一个向量,其方向与旋转轴一致,而长度等于旋转角,这种向量称为旋转向量(或称轴角)ps:旋转向量就是下章要介绍的李代数旋转向量到旋转矩阵,可以由罗德里格斯公式推导二、欧拉角欧拉角,并不是一个角,而是使用三个分离的转角来描述物体运动,
本大人乐意
·
2020-07-13 21:11
SLAM
SLAM学习
日志(二) 2D(单线)激光雷达PointCloud与LaserScan格式转换
目录1.背景2.PointCloud与sensor_msgs::LaserScan的转换2.1sensor_msgs::LaserScan转PointCloud2.2PointCloud转sensor_msgs::LaserScan3.PointCloud与sensor_msgs::PointCloud2的转换3.1PointCloud转sensor_msgs::PointCloud23.2sen
大象威武
·
2020-07-11 05:03
ROS
SLAM
SLAM学习
日志(一) 2D(单线)激光雷达运动畸变校正(1 介绍篇)
具体原理讲解见:
SLAM学习
日志(二)2D(单线)激光雷达运动畸变校正(2原理篇
大象威武
·
2020-07-11 05:03
SLAM
ROS
SLAM学习
日志(二) 2D(单线)激光雷达运动畸变校正(2 原理篇)
目录1.背景2.激光雷达运动畸变校正原理2.1球面线性插值公式2.2畸变校正计算流程3.参考文献1.背景 2D激光雷达运动畸变校正的介绍见上一篇:
SLAM学习
日志(一)2D(单线)激光雷达运动畸变校正
大象威武
·
2020-07-11 05:03
SLAM
ROS
SLAM学习
——特征点SIFT、SURF、ORB
SLAM的本质问题在于让计算机识别出连续两幅图像之间的姿态变化,通常需要在图像中选取一些特征点作为标识用来计算相机位姿变化。注意特征点不是角点,不仅包括点的位置,还包括点的特征描述。常用的特征点包括:1)SIFT特征点(尺度不变特征变换,ScaleInvariantFeatureTransform)SIFT特征点属于最常见的特征点,它充分考虑了在图像变换过程中出现的光照,尺度,旋转等变化,但随之而
abunwpu
·
2020-07-11 01:49
SLAM
SLAM学习
资料整理
个人能力有限,若有错误请批评指正!转载请标明出处:http://www.cnblogs.com/wenhust/书籍:1.必读经典ThrunS,BurgardW,FoxD.《Probabilisticrobotics》[M].Cambridge,USA:MITPress,2005《PrinciplesofRobotMotionTheory,AlgorithmsandImplementation》2
yuelcay
·
2020-07-10 14:43
SLAM
slam的原理
视觉
slam学习
资料
一直想写博客,一来是实验室太忙,二来是自己初入视觉slam,怕误人子弟。所以一直没写,但是实验室的同学说我可以介绍一些基础给那些刚入门的人参考。那么从今天开始我就开始陆陆续续的把我所了解的visualslam写给大家。希望一些大牛能指正!这篇博客就把我自己整理的资料贴出来,供大家参考。(1)orb_slam官网(网站最后有5篇论文,价值很高)http://webdiis.unizar.es/~ra
yuelcay
·
2020-07-10 14:43
SLAM
视觉slam
SLAM学习
1 Ubuntu16.04安装ROS-kinetic
wishchinsudosh-c'echo"debhttp://packages.ros.org/ros/ubuntu$(lsb_release-sc)main">/etc/apt/sources.list.d/ros-latest.list'//sudosh-c'./etc/lsb-release&&echo"debhttp://mirrors.ustc.edu.cn/ros/ubuntu/$D
ljthink
·
2020-07-09 19:03
学习
ROS及
SLAM学习
笔记【一】
1、在使用我们下载好的ROS程序包之前,必须先对程序包所在的工作区进行编译,比如使用命令行的命令$catkin_make编译。2、因为在调用ROS程序包当中的时候,ROS的调用机制是把调用路径默认到opt目录下的ROS库中,所以我们想要创建或者是使用我们自己创建的工作区里面的ROS程序包,就必须先设置好环境变量:$source/home/ubu/turtlebot_ws/devel/setup.b
Ser_Y
·
2020-07-09 04:04
ROS&SLAM
视觉
slam学习
(一):历史与现状
视觉
slam学习
(一):历史与现状转载:http://blog.csdn.net/qinruiyan/article/details/48498593即时定位与地图构建(SimultaneousLocalizationandMapping
Au_hourb_SCUT
·
2020-07-08 09:24
slam
slam
SLAM学习
笔记一基础知识:双目标定,去畸变,立体匹配,视差图
1,摄像头使用的是自己用FPGA做的双目,1280*720p@60hz,9轴IMU,以太网接口,硬件帧同步,优于1us,全局快门AR0134,输出彩色,灰度图像,可配640*480@80hz,1280*960@50hz,自动曝光触发,外部曝光触发。2,matlab工具箱标定双目matlab工具箱的标定方法要比opencv精确,可以人工挑选匹配图片。拍摄100张左右标定板图片,两个摄像头对应的图片名
hanshihao1336295654
·
2020-07-07 09:04
SLAM
ROS机器人
SLAM学习
:自建虚拟世界与Gazebo定位与导航仿真
gazebo中能仿真真实世界,包括很多物理属性,比如惯性,碰撞等。对于没有真实机器人和场地条件的情况下,作用十分强大。在本篇文章中,我会介绍如何在Gazebo中实现小车的定位与导航仿真,我会将所用代码上传,你可以使用他自带的虚拟环境,也可以像我一样,自行创建一个虚拟世界。首先启动gazebo,ctrl+B启动gazeb自带的building模式然后在构建好后,保存至./gazebo/moduls创
被逼的阿陈
·
2020-07-06 19:30
ROS机器人
SLAM学习
:Gazebo定位与导航仿真
ROS机器人
SLAM学习
:Gazebo定位与导航仿真一.在gazebo中构建一个用于建图和导航的虚拟环境,可以使用BuildingEditor工具创建,也可以使用其他功能包中已有的虚拟环境;将前面作业完成的带传感器的移动机器人
w²大大
·
2020-07-06 18:18
ROS学习
ROS的
SLAM学习
:地图扫描与导航仿真
首先启动gazebo,ctrl+B启动gazebo自带的building模式,构建自己的模型然后将模型文件命名,然后保存到目录下(默认的是home目录)之后将世界命名,然后保存到mbot_gazebo的worlds文件夹下并修改mbot_gazebo中你需要用到的机器人模型的launch文件,将原有的参数,替换成自己的(如果这个方法不行,可以不用在创建完模型之后再改参数。可以先修改参数,然后运行l
Time ??
·
2020-07-06 15:01
嵌入式
SLAM学习
笔记(三)特征提取
转载:http://blog.csdn.net/renshengrumenglibing/article/details/8604245激光雷达获取的信息是和周围物体之间的距离信息,在移动机器人尤其是自主移动机器人领域具有非常广泛的应用,那我们就从移动机器人的自主导航开始聊吧。移动机器人导航是指移动机器人依靠传感器在特定环境中,按时间最优、路径最短或能耗最低等准则实现从起始位置到目标位置的无碰撞运
走过_冬天
·
2020-07-06 14:39
机器学习
SLAM学习
笔记2:Kalman Filter(卡尔曼滤波) 与Least Square(最小二乘法) 的比较
对于一个问题的解决,最根本在于怎样对它进行数学建模。对SLAM问题的建模,基本上是基于filter和graph两大类,今天整理了一下,对比两种模型的区别及共性。主要参考这篇讲解:http://www.insidegnss.com/node/3445以及《最优估计理论》刘胜,张红梅,科学出版社Kalmanfilter和LeastSquare的目标都是误差最小化,LeastSquare是优化方法中的一
Qinrui_Yan
·
2020-07-06 11:21
SLAM
学习笔记
SLAM
最优估计
数学建模
相机模型成像原理
本内容为
slam学习
中所涉及的关于相机模型基础知识整理。一.针孔相机模型与图像照片记录了真实世界在成像平面上的投影,这个过程丢弃了“距离”维度上的信息,普通相机可以用针孔模型很好的近似。
Fm镄
·
2020-07-06 02:06
slam
ROS机器人
SLAM学习
:Gazebo定位与导航自主仿真
1)在gazebo中构建一个用于建图和导航的虚拟环境,可以使用BuildingEditor工具创建,也可以使用其他功能包中已有的虚拟环境;将前面作业完成的带传感器的移动机器人(小车)模型放置到虚拟环境中,使用gmapping和hector_slam功能包实现SLAM仿真,并将简历完成的地图保存到功能包的maps文件夹中,随作业一同提交。①首先使用gmapping将要执行的launch文件中内容修改
sanyiji
·
2020-07-05 11:33
ROS
slam学习
:dso-slam运行数据集教程
简介:在运行dso-slam的时候需要很多文件,在本片博客中我将一一解释。1.运行指令bin/dso_dataset\files=XXXXX/sequence_XX/images.zip\calib=XXXXX/sequence_XX/camera.txt\gamma=XXXXX/sequence_XX/pcalib.txt\vignette=XXXXX/sequence_XX/vignette.
我是最帅的~
·
2020-07-02 17:00
学生
VINS-Mono和ORB-SLAM2代码阅读笔记汇总
VINS-Mono代码是港科大沈老师组开放出来的非常优秀的开源SLAM项目,融合了视觉和IMU,是
SLAM学习
研究中一个很好的项目。这里列出本人学习该项目代码过程中的笔记,后续有新的理解会不断更新。
文科升
·
2020-07-02 12:12
SLAM
在Ubuntu16.04(ROS-kinetic)上编译测试ORB-SLAM1和ORB-SLAM2
首推一篇不错的文章(文章出自高翔《视觉SLAM十四讲》中的最后一讲):史上最全的
SLAM学习
资料收集。里面有近年来各个优秀的开源SLAM方案的项目网址和源码地址。
嵙杰
·
2020-07-02 09:37
ros学习
SLAM学习
Ubuntu系统
ORB-SLAM 学习
ORB-
SLAM学习
笔记1.系统框架(A)Tracking,LocalMappingandLoopClosing线程Thetrackingisinchargeoflocalizingthecamerawitheveryframeanddecidingwhentoinsertanewkeyframe.Foreachtwosuccessiveframes
Yhhhhhh.
·
2020-07-02 01:50
SLAM
ROS+
SLAM学习
日志(4)获取控制与位移信息
在ROS的rostopiclist中有两个主题是有关控制信息的,一个是/cmd_vel,另一个是/server/Odom这两个有什么,这两个topic记录下来的bag都有linear与orientation这两个列表,前者中的x表示速度,后者的z表示方向。两者的不同之处在于,前者是对机器人位移的控制信息,后者是按照指令真正的位移。那么得到的bag如何转换成文本文件呢,使用一下指令就可以做到rost
发条蟀
·
2020-07-02 01:15
ROS
SLAM学习
(一)——Linux编译C++方法介绍
简单概括下SLAM主要步骤:传感器信息读取、视觉里程计(VO)、后端优化(Optimization)、回环检测(LoopClosing)、建图(Mapping)该文章主要介绍编程基础部分:在Linux进行编程的方法介绍程序名:helloSLAM.cpp#includeusingnamespacestd;intmian(intargc,char**argv){coutusingnamespacest
凵恧
·
2020-07-01 04:50
SLAM
C++
微鉴道长
SLAM学习
笔记(目录)
下面是第一版视觉SLAM14讲我的笔记目录。SLAM14讲学习笔记(一)李群李代数基础SLAM14讲学习笔记(二)相机模型总结SLAM14讲学习笔记(三)非线性优化基础SLAM14讲学习笔记(四)视觉里程计(特征点法)和重难点总结SLAM14讲学习笔记(五)视觉里程计(光流法和直接法)和对于雅克比矩阵的理解SLAM14讲学习笔记(六)后端(最难一章:卡尔曼滤波器推导、理解以及扩展)SLAM14讲学
zkk9527
·
2020-06-30 18:42
SLAM学习笔记
ROS机器人
SLAM学习
:Gazebo定位与导航仿真
ROS机器人
SLAM学习
:Gazebo定位与导航仿真安装gmapping:启动gmapping演示(激光雷达):1.启动仿真环境2.在Rviz中查看激光雷达信息3.启动键盘控制机器人移动若现了以下错误,
good luck*
·
2020-06-29 09:36
嵌入式开发笔记(2)---ROS机器人
SLAM学习
:Gazebo定位与导航仿真
[toc]首先云盘资源包在这里密码:g6vc0.准备工作:编译:catkin_make添加环境变量:(我这里添加了就不再添加)gedit~/.bashrc1.gmapping下载gmapping:sudoapt-getinstallros-melodic-gmapping启动gmapping演示:roslaunchmbot_gazebombot_laser_nav_gazebo.launchros
易与天行
·
2020-06-26 03:12
嵌入式开发笔记
视觉
SLAM学习
【7】-----基于ubuntu16.04的深度及彩色图像立体匹配,并生成深度和彩色3D点云
视觉
SLAM学习
【7】-----基于ubuntu16.04的深度及彩色图像立体匹配,并生成深度和彩色3D点云目录一、数据准备和库的安装及配置1、数据准备2、Pangolin库的下载安装及配置二、创建项目
陈一月的编程岁月
·
2020-06-25 23:35
嵌入式开发项目学习
slam学习
:lsd-slam使用说明
简介:关于lsd-slam的细节,再github的readme中写的特别详细,在这里我将其最主要的部分摘出来,供大家参考。使用说明简介:LSD-SLAM提供了两个ROS包-----lsd_slam_core和las_slam_viewer。其中lsd_slam_core包含整个SLAM系统,而lsd_slam_viewer是用于3D可视化的。本文主要对lsd_slam_core这个包进行讲解,ls
我是最帅的~
·
2020-06-25 02:27
学生
ROS+
SLAM学习
日志(3)获取图像与视频
在ROS中,一般会有一个节点用于展示摄像头采集到的图像。这是一个包含复杂数据的topic,一般最好用特殊的工具来显示与分析。因为这里根据摄像头设备的不同需要不同的launch文件来启动摄像头,我这里用的是自己机器人的文件,或者也可以用网上的例程用自己笔记本摄像头实验,用rostopichzXXX可以看到视屏的帧率,其中XXX是topic的名称。图片的获取不能直接使用rostopicechoXXX指
发条蟀
·
2020-06-23 12:57
ROS
SLAM学习
笔记——(一)SLAM分类
SLAM(SimultaneousLocalizationandMapping)是指同步定位与地图构建。定位和建图两个问题相互依赖,准确的定位依赖于正确的地图,而构建正确的地图又需要准确的定位,这是一个迭代的过程。目前的SLAM根据硬件设备的不同主要有两种:1.基于激光雷达的SLAM基于激光雷达构建场景是古老并且可信的方法,激光雷达也是精确场景使用最多的SLAM传感器。它们提供机器人本体与周围环境
bingoplus
·
2020-06-22 18:32
SLAM基础知识
在Win10中使用Gazebo9+进行机器人仿真
完全满足入门学习需求哦~博客已经发布Ubuntu+Arduino+ROS1+ROS2+
SLAM学习
镜像,Linux下教程基本针对ROS2展开。
zhangrelay
·
2020-06-22 10:05
ROS
Melodic
迷失与救赎
SLAM学习
笔记(三) 后端优化与回环检测
后端优化是对相机位姿和点位置的再度优化(相较于前端优化规模更大),回环检测是对地图进行的一种修正(当机器人回到原来位置时,地图也实现一个闭环)。后端优化与回环检测后端优化扩展卡尔曼滤波器BA与图优化位姿图回环检测仍需深入探讨的问题后端优化主要介绍三种方法:EKF(扩展卡尔曼滤波器)、BA图优化、位姿图。已知运动数据和观测数据,对它们进行优化。扩展卡尔曼滤波器假设了马尔可夫性,即当前状态仅与前一时刻
叶惹秋
·
2020-04-22 15:21
SLAM学习
slam
计算机视觉
视觉
SLAM学习
(一)
基础知识SLAM是SimultaneousLocalizationandMapping的缩写,中文译作同时定位与地图构建。对定位来说,我们可以通过传感器来实现该功能。传感器又分两类,一类是携带于机器人本体上的,例如轮式编码器,相机,激光传感器等;另一类是安装与环境中的,如可通过二维码等来实现。定位时采用的相机也不同,有单目相机,双目相机和深度相机三大类。经典视觉SLAM框架传感器信息的读取,在视觉
Sunshine_晗晗
·
2020-04-06 20:58
SLAM学习
笔记(1)
在家带娃,闲来无事翻看《视觉SLAM十四讲》,粗略过了一遍,先记个大概,细节部分容后再补。SLAM框架如图图片发自App一、前端视觉里程计视觉里程计的任务是估算相邻图像间的相机运动,以及局部地图。实现方式主要有两类:特征点方式和直接法。1.特征点方式提取特征点→特征点匹配→估计相机运动在目前的SLAM方案中,ORB是质量与性能的较好折中。相机运动估计主要有三种实现方式:1.12D-2D(两张图像中
篱落秋风
·
2020-03-21 23:37
SLAM学习
——卡尔曼滤波(KF/EKF)
符号意义x^\hat{x}x^:状态x的估计状态,后验xˉ\bar{x}xˉ:估计状态x^k\hat{x}_kx^k的预估值,先验PPP:协方差一、卡尔曼滤波(KF)1.1状态观测器(StateObservers)通过反馈,计算实际观测值yyy与估计观测值y^\hat{y}y^的误差,调整增益K使误差减少,让数学模型更加接近实际系统。当数学模型与实际系统接近时,通过数学模型计算获得估计状态值x^\
white_Learner
·
2020-01-04 16:50
SLAM
slam学习
-传感器学习-camera基础
【关键字】cvcamera标定camera基础名词理解iris:进光量lens:透镜相机和人眼image.pngimage.png相机成像模型小孔成像的数学模型模型基础变量说明第一种小孔成像数学模型第二种数学模型通过观察这两个模型,其实大同小异,都是相似三角形的知道一个边,求其他边的小儿科套路相机标定基础概念http://www.cnblogs.com/Jessica-jie/p/6596450.
scott_yu779
·
2019-12-22 11:32
slam学习
技能栈
关键字:slamslam行业和细分领域的分析和展望【优秀博文引用】https://36kr.com/p/5049190.htmlslam的具体应用和产品落地,还在发展和迭代进化中!有兴趣和有志于在这个方向深入研究的小伙伴,可以关注!【知识点和问题】如何提取关键帧?稠密地图适合做3d重建,如果只是定位,稀疏地图即可DTAM相对于PTAM是进步,但是计算量太大Semi-DenseLSDSLAM相对于D
scott_yu779
·
2019-12-06 19:32
视觉
slam学习
之——ch7 视觉里程计(centos系统)
这个章节主要讲解:图像特征提取;多幅图像匹配特征点;对极几何;PNP问题;ICP问题;三角化原理;一.特征点提取和匹配工程实践需要你事先安装了opencv3;由于opencv3中提供了由本质矩阵E恢复R,t的接口。opencv2和opencv3提取特征点时有些语法写法不太一样~用CLion打开slambook2-master的ch7工程;其中旧的slambook的ch7中有如下的文件:而slamb
ciky奇
·
2019-10-10 17:49
特征提取和匹配
本质矩阵E
单应性矩阵
centos
机器人
计算机视觉
SLAM
视觉
slam学习
之——ch6 非线性曲线拟合(centos系统)
非线性曲线拟合,高博士给的demo主要用谷歌ceres库实现,高斯牛顿方式实现,g2o库实现,这三个程序例子。一.首先介绍ceres库安装与实现ceres库是谷歌开发的C++库,用于建模和解决复杂的优化问题的。能用于解决非线性最小二乘问题。ceres介绍ceres的官方安装链接:ceres安装文档进入以上链接,首先下载文件,可以用git,或者点击最新稳定发布版本下载:我下载的是:ceres-sol
ciky奇
·
2019-10-08 20:08
机器人
计算机视觉
SLAM
slam学习
之——stereoVision.cpp实践
在学习高博的slam时,用的是slambook2-master这个新仓库,在ch5/stereo这个工程运行时,做了一些更改;工程包括如下内容(其中build是自己创建的)根据安装依赖库的路径,对CMakeLists.txt做了些更改,更改后的内容如下:find_package(PangolinREQUIRED)find_package(OpenCV3.0REQUIRED)#addbycsq,由于
ciky奇
·
2019-09-30 16:01
机器人
计算机视觉
SLAM
上一页
1
2
3
4
5
6
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他