E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
视觉SLAM
视觉slam
--框架
视觉里程计的框架传感器VO--frontendVO的缺点后端--backend后端对什么数据进行优化利用什么数据进行优化的后端是怎么进行优化的回环检测建图建图是指构建地图的过程。构建的地图是点云地图还是什么信息的地图?建图并没有一个固定的形式和算法,地图的构建形式不是固定的,需要视SLAM的应用需求而定。
猿饵块
·
2025-06-11 09:47
人工智能
视觉slam
十四讲实践部分记录——ch2、ch3
ch2一、使用g++编译.cpp为可执行文件并运行(P30)g++helloSLAM.cpp./a.out运行二、使用cmake编译mkdirbuildcdbuildcmake..makeCMakeCache.txt文件仍然指向旧的目录。这表明在源代码目录中可能还存在旧的CMakeCache.txt文件,或者在构建过程中仍然引用了旧的路径。我们需要彻底清理并重新开始。详细解决步骤步骤1:彻底清理源
kikikidult
·
2025-06-11 00:14
slam学习
slam
c++
笔记
《
视觉SLAM
十四讲》自用笔记 第二讲:SLAM系统概述
以下为第二讲的部分笔记:第二讲SLAM系统概述2.0目标1.理解一个
视觉SLAM
框架由哪几个模块组成,各模块的任务是什么。2.搭建编程环境,为开发和实验做准备2.1相机单目相机:只使用一个摄像头。
BandieraRosa
·
2025-06-08 06:56
slam
笔记
【
视觉SLAM
基础(二):特征点提取与匹配】
前言在
视觉SLAM
中,特征点是连接连续图像帧的桥梁,是视觉里程计的核心。本文将详细介绍特征点的提取与匹配方法,以及如何利用这些特征点估计相机运动。
Unpredictable222
·
2025-06-02 20:34
SLAM算法
算法
自动驾驶
ubuntu
c++
笔记
opencv
视觉SLAM
十四讲第 2 讲 初识 SLAM
如果传感器主要为相机,就称为“
视觉SLAM
”。SLAM问题的本质:对运动主体自身和周围环境空间不确定性的估计。2.自主运动的两大基本问题1)我在什么地方?-定位
tmiger
·
2025-05-14 04:21
计算机视觉
人工智能
视觉SLAM
ch5代码总结(二)
图像去畸变CMakeLists.txtcmake_minimum_required(VERSION3.10)project(basics)#Eigeninclude_directories("/usr/include/eigen3")#opencvfind_package(OpenCVREQUIRED)#添加头文件include_directories(${OpenCV_INCLUDE_DIRS}
雨幕丶
·
2025-05-10 01:34
视觉SLAM
计算机视觉
c++
slam
高翔《
视觉SLAM
十四讲》第七章视觉里程计3d-2d位姿估计代码详解与理论解析
高翔《
视觉SLAM
十四讲》第七章代码详解与理论解析一、三维空间位姿估计核心算法实现在
视觉SLAM
领域,3D-2D位姿估计是确定相机在三维空间中位置和姿态的关键技术。
xMathematics
·
2025-04-30 08:53
3d
视觉slam
机器人
无人驾驶
无人机
人工智能
高翔
视觉slam
中常见的OpenCV和Eigen的几种数据类型的内存布局及分配方式详解
vector>内存布局及分配方式详解1.内存对齐的必要性Eigen的固定大小类型(如Eigen::Vector2d、Eigen::Matrix4d等)需要16字节内存对齐,以支持SIMD指令(如SSE/AVX)的并行计算。若未对齐,可能导致程序崩溃或性能下降。2.默认分配器的潜在问题若直接使用std::vector,其默认分配器std::allocator可能无法保证内存对齐。例如:若容器内存起始
xMathematics
·
2025-04-30 07:51
opencv
人工智能
计算机视觉
内存布局
c++
slam
机器人
cmake使用教程
cmake使用教程本教程是参考高翔
视觉SLAM
十四讲中的讲解。
四夕小一冰
·
2025-04-20 11:08
cmake相关
c++
视觉同步定位与地图构建(Visual SLAM)架构详解
视觉同步定位与地图构建(VisualSLAM)架构详解视觉同步定位与地图构建(VisualSimultaneousLocalizationandMapping,简称
视觉SLAM
)是机器人自主导航、增强现实等领域中的关键技术
YRr YRr
·
2025-04-14 17:01
视觉SLAM
架构
视觉SLAM
【菜狗学三维重建】Slam对极几何实战—从两张未知相机内参的图片计算出来相机Rt——20250413
目录任务1、读取图像2、特征点检测与匹配3、从匹配的对应点中选择八个点4、求解F矩阵(没有内参信息用基础矩阵F来求Rt)之前有一篇关于原理方面的
视觉slam
三维重建的文章,现在来实战一下,将书本上的知识转化为代码实现一下
小狗照亮每一天
·
2025-04-13 20:18
数码相机
计算机视觉
深度学习
笔记
opencv
人工智能
OAK相机:纯
视觉SLAM
在夜晚的应用
哈喽,OAK的朋友们,大家好啊,今天这个视频主要想分享一下袁博士团队用我们的OAK相机产出的新成果在去年过山车SLAM的演示中,袁博士团队就展示了纯
视觉SLAM
在完全黑暗的环境中的极高鲁棒性。
OAK中国_官方
·
2025-03-01 20:26
人工智能
机器学习
SLAM
视觉SLAM
十四讲 第7讲 (3) 相机运动估计 2D-2D/3D-2D/3D-3D
相机运动估计2D-2D/3D-2D/3D-3D1.2D-2D:对极约束2.三角测量3.3D-2D:PnP3.1直接线性变换DLT3.2P3P3.3最小化投影误差求解PnP4.3D-3D:ICP4.1SVD方法4.2非线性优化方法5.总结若已经有匹配好的点对,要根据点对估计相机的运动,可以分为以下三种情况:2D-2D:即点对都是2D点,比如单目相机匹配到的点对。我们可以用对极几何来估计相机的运动。在
LYF0816LYF
·
2025-02-27 21:27
slam
learning
3d
计算机视觉
算法
slam
动态
视觉SLAM
的亿点点思考(含20项最新开源代码链接)[上篇]
0.笔者个人体会动态环境下的
视觉SLAM
一直都是研究的重点和难点,但最近动态SLAM的paper越来越少,感觉主要原因是动态SLAM的框架已经固化,很难做出大的创新。
3D视觉工坊
·
2025-02-26 05:57
3D视觉从入门到精通
人工智能
自动驾驶(Automated Driving)系统组成和主要技术--以思维导图形式介绍
定位传感器模块:包括GNSS(全球导航卫星系统)、INS(惯性导航系统)和
视觉SLAM
等,用于确定车
大连海事的亲外甥
·
2025-01-30 04:28
自动驾驶
人工智能
机器学习
【MotionCap】DROID-SLAM 1 :介绍及安装
DROID-SLAM:DROID-SLAM:DeepVisualSLAMforMonocularDROID-SLAM:适用于单目、立体和RGB-D相机的深度
视觉SLAM
Stereo,andRGB-DCamerashttps
等风来不如迎风去
·
2025-01-23 22:38
AI入门与实战
人工智能
SLAHMR
DROID-SLAM
【ORB-SLAM2:三、 地图初始化】
地图初始化是
视觉SLAM
系统的关键步骤之一,它是整个系统运行的起点。初始化的主要任务是从输入图像数据中构建一个初始地图,为后续的相机位姿估计和场景重建提供基础。
KeyPan
·
2025-01-20 17:26
ORB-SLAM2
数码相机
计算机视觉
人工智能
机器学习
深度学习
算法
【
视觉SLAM
:六、视觉里程计Ⅰ:特征点法】
它是
视觉SLAM
的重要组成部分之一,主要通过提取图像中的信息(如特征点或直接像素强度)来实现相机运动估计。
KeyPan
·
2025-01-20 11:45
视觉SLAM
计算机视觉
人工智能
机器学习
数码相机
算法
深度学习
【视觉惯性SLAM:十五、ORB-SLAM3中的IMU预积分】
单一的
视觉SLAM
主要依赖于图像特征进行定位和建图,这种方法虽然能够在许多环境中获得良好的效果,但其鲁棒性容易受到动态变化、光照条件恶化以及环境特征稀缺等因素的限制。例如,昏暗场景或快速运动可能
KeyPan
·
2025-01-18 18:31
视觉惯性SLAM
计算机视觉
视觉检测
视觉SLAM
学习打卡【8-1】-视觉里程计·直接法
视觉SLAM
学习打卡【8-1】-视觉里程计·直接法一、光流法(1)前提(实际中较难满足)(2)理论推导(3)附:超定方程求解二、直接法(1)理论
肝帝永垂不朽
·
2025-01-17 23:38
#
SLAM
计算机视觉
opencv
c++
视觉SLAM
十四讲学习笔记——第十讲 后端优化(2)
上文提到考虑全局的后端优化计算量非常大,因此在计算增量方程时,借助H矩阵的稀疏性加速运算。但是随着时间的推移,累积的相机位姿和路标数量还是会导致计算量过大,以上一节的示例代码数据为例:16张图像,共提取到22106个特征点,这些特征点共出现了83718次。对于一个20Hz更新速度,上述的数据量甚至还不到1s的内容,因此在求解大规模定位建图问题时,一定要控制BA的规模。这里主要有两种解决思路:(1)
晒月光12138
·
2024-09-08 13:10
视觉SLAM十四讲学习笔记
slam
ubuntu
视觉slam
十四讲学习笔记(六)视觉里程计 1
本文关注基于特征点方式的视觉里程计算法。将介绍什么是特征点,如何提取和匹配特征点,以及如何根据配对的特征点估计相机运动。目录前言一、特征点法1特征点2ORB特征FAST关键点BRIEF描述子3特征匹配二、实践:特征提取和匹配三、2D-2D:对极几何1对极约束2本质矩阵3单应矩阵四、实践:对极约束求解相机运动五、三角测量总结前言1.理解图像特征点的意义,并掌握在单幅图像中提取出特征点,及多幅图像中匹
苦瓜汤补钙
·
2024-02-19 13:54
视觉SLAM十四讲
笔记
机器学习
ubuntu
视觉SLAM
十四讲学习笔记——第五讲 相机与图像
这一讲主要内容就是了解摄像机的成像模型以及OpenCV的使用。1.四种坐标系坐标系基本描述世界坐标系因为摄像机和物体可以随便摆放在空间中的任何位置,所以我们必须用一个固定的坐标系来描述空间中任何物体的位置和摄像机的位置和朝向,这个基准坐标系我们称之为世界坐标系。在计算机视觉中,我们通常把世界坐标系定义为摄像机坐标系或者所观测的物体的中心。摄像机坐标系摄像机坐标系的原点是摄像机的光心,X、Y轴分别平
晒月光12138
·
2024-02-15 10:06
视觉SLAM十四讲学习笔记
自动驾驶
计算机视觉
人工智能
视觉slam
十四讲学习笔记(四)相机与图像
理解理解针孔相机的模型、内参与径向畸变参数。理解一个空间点是如何投影到相机成像平面的。掌握OpenCV的图像存储与表达方式。学会基本的摄像头标定方法。目录前言一、相机模型1针孔相机模型2畸变单目相机的成像过程3双目相机模型4RGB-D相机模型二、图像计算机中图像的表示三、图像的存取与访问1安装OpenCV2存取与访问总结前言前面介绍了“机器人如何表示自身位姿”的问题,部分地解释了SLAM经典模型中
苦瓜汤补钙
·
2024-02-15 10:06
视觉SLAM十四讲
笔记
相机
机器学习
ORB-SLAM3运行自制数据集进行定位教程
目前手上有一个特定的任务,做应急救援的
视觉SLAM
,目前公共数据集比较少,考虑自建数据集,从网络上爬虫火灾、地震的等手机录制的视屏,应用一些现有成熟ORB-SLAM3系统到这个数据集上看效果,然后根据效果得到一些模型改进思路
极客范儿
·
2024-02-13 18:27
ORB-SLAM
━═━═━◥
MR
◤━═━═━
IMU
ORB-SLAM3
视觉SLAM
十四讲学习笔记(二)三维空间刚体
哔哩哔哩课程连接:
视觉SLAM
十四讲ch3_哔哩哔哩_bilibili目录一、旋转矩阵1点、向量、坐标系2坐标系间的欧氏变换3变换矩阵与齐次坐标二、实践:Eigen(1)运行报错记录与解决三、旋转向量和欧拉角
苦瓜汤补钙
·
2024-02-13 05:01
视觉SLAM十四讲
笔记
计算机视觉
算法
视觉slam
十四讲学习笔记(三)李群与李代数
1.理解李群与李代数的概念,掌握SO(3),SE(3)与对应李代数的表示方式。2.理解BCH近似的意义。3.学会在李代数上的扰动模型。4.使用Sophus对李代数进行运算。目录前言一、李群李代数基础1群2李代数的引出3李代数的定义4李代数so(3)5李代数se(3)二、指数与对数映射1SO(3)上的指数映射2SE(3)上的指数映射三、李代数求导与扰动模型1BCH公式与近似形式2SO(3)李代数上的
苦瓜汤补钙
·
2024-02-13 05:01
视觉SLAM十四讲
笔记
人工智能
学习
视觉SLAM
十四讲学习笔记(一)初识SLAM
目录前言一、传感器1传感器分类2相机二、经典
视觉SLAM
框架1视觉里程计2后端优化3回环检测4建图5SLAM系统三、SLAM问题的数学表述四、Ubuntu20.04配置SLAM十四讲前言SLAM:SimultaneousLocalizationandMapping
苦瓜汤补钙
·
2024-02-09 03:11
计算机视觉
人工智能
【SLAM14讲编译依赖软件源码版本方面等问题汇总】
"逆转鹈鹕”0.
视觉SLAM
十四讲1.ch3-------Eigen32.ch4-------Sophus2.ch5-------JoinMap3.ch63.1---ceres3.2---g2o4.ch7
终问鼎
·
2024-02-08 23:28
自动驾驶-SLAM
c++
自动驾驶
bug
linux
ubuntu
《
视觉SLAM
十四讲》第九讲前段实践中g2o实践代码报错解决方法
在《
视觉SLAM
十四讲》中针对于g2o初始化部分代码是无法执行的,在高博的Git上的代码也是无法编译的,会报错:error:nomatchingfunctionforcallto‘g2o::BlockSolver
大二哈
·
2024-02-08 18:17
计算机视觉中的Homography单应矩阵应用小结
计算机视觉中的Homography(单应)矩阵应用小结Homography矩阵在StructurefromMotion(SfM)或三维重建、
视觉SLAM
的初始化过程有着重要应用,本文总结了单应矩阵出现场景与常见问题求解
CS_Zero
·
2024-02-08 07:36
SLAM
计算机视觉CV
计算机视觉
slam
几何学
【
视觉SLAM
十四讲学习笔记】第六讲——状态估计问题
专栏系列文章如下:【
视觉SLAM
十四讲学习笔记】第一讲——SLAM介绍【
视觉SLAM
十四讲学习笔记】第二讲——初识SLAM【
视觉SLAM
十四讲学习笔记】第三讲——旋转矩阵【
视觉SLAM
十四讲学习笔记】第三讲
趴抖
·
2024-02-06 01:12
视觉SLAM十四讲学习笔记
笔记
SLAM
【
视觉SLAM
十四讲学习笔记】第六讲——非线性最小二乘
专栏系列文章如下:【
视觉SLAM
十四讲学习笔记】第一讲——SLAM介绍【
视觉SLAM
十四讲学习笔记】第二讲——初识SLAM【
视觉SLAM
十四讲学习笔记】第三讲——旋转矩阵【
视觉SLAM
十四讲学习笔记】第三讲
趴抖
·
2024-02-06 01:41
视觉SLAM十四讲学习笔记
笔记
SLAM
INDEMIND双目惯性模组运行实时ORB-SLAM3教程
现在实验室
视觉SLAM
已经不够满足,所以需要多模态融合,正巧购入高翔博士推荐的INDEMIND双目惯性模组,根据官方例程在中使用ROS接入ORB-SLAM3,这回有SDK及ORB-SLAM3安装过程中的各种常见性问题解决方法及安装细节
极客范儿
·
2024-02-04 10:01
ORB-SLAM
━═━═━◥
MR
◤━═━═━
ORB-SLAM3
INDEMIND
ROS
ubuntu
20.04
imu
科普类(双目视觉)——快速索引
科普类(双目视觉)——快速索引科普类——双目视觉在无人驾驶汽车中的应用(一)科普类——双目
视觉SLAM
在无人驾驶汽车中的作用(二)科普类——双目视觉在自动驾驶中存在的问题、挑战以及解决方案(三)科普类—
JANGHIGH
·
2024-02-03 07:11
科普类无人驾驶
快速索引
自动驾驶
科普类——双目
视觉SLAM
在无人驾驶汽车中的作用(二)
科普类——双目
视觉SLAM
在无人驾驶汽车中的作用(二)在无人驾驶汽车中,
视觉SLAM
(SimultaneousLocalizationandMapping,即同时定位与地图构建)是一种关键技术,它允许车辆在未知环境中进行自我定位和地图构建
JANGHIGH
·
2024-02-03 07:41
科普类无人驾驶
汽车
人工智能
【ORB-SLAM2源码梳理1】以单目mono_tum.cc为例,构建SLAM系统(含mono_tum.cc、System.cc关键代码解析)
LoadImages()2.构建SLAM系统:System3.系统构建结束,开启跟踪线程1)一帧帧地读取对应路径下的rgb图像:2)将图像帧传入Tracking线程,开始一系列操作(关键):二、代码导图前言因为对于
视觉
Jay_z在造梦
·
2024-01-30 12:30
ORB-SLAM2
c++
slam
orb
手把手带你死磕ORBSLAM3源代码(六十四) LocalMapping.cc LocalMapping Run
方法进入一个无限循环,这是因为在
视觉SLAM
中,局部映射是一个持续进行的过程,需要不断地处理新的关键帧和地图点。
安城安
·
2024-01-30 11:01
数据库
服务器
网络
运维
vim
linux
c语言
视觉SLAM
十四讲|【四】误差Jacobian推导
视觉SLAM
十四讲|【四】误差Jacobian推导预积分误差递推公式ω=12((ωbk+nkg−bkg)+(wbk+1+nk+1g−bk+1g))\omega=\frac{1}{2}((\omega_b
影子鱼Alexios
·
2024-01-29 18:20
algorithm
机器学习
机器人
视觉SLAM
十四讲|【六】基于特征匀速模型的重投影误差计算形式
视觉SLAM
十四讲|【六】基于特征匀速模型的重投影误差计算形式基本推导方法无时间戳延迟时,残差计算流程:世界坐标系中的第lll个地图点变换到相机坐标系下为flw=[x,y,z]Tf_l^w=[x,y,z
影子鱼Alexios
·
2024-01-29 17:18
algorithm
控制理论
机器学习
机器人
人工智能
《SLAM十四讲》Ch7编译报错
《SLAM十四讲》Ch7编译报错原因:
视觉SLAM
书上的程序使用的g2o版本比较旧了,使用的是c++11版本的g2o。
Prejudices
·
2024-01-28 15:38
SLAM
SLAM
openvslam------slam解读系列
是什么:openvslam是日本先进工业科技研究(NationalInstituteofAdvancedIndustrialScienceandTechnology)所于2019年5月20日开源的
视觉SLAM
xiechaoyi123
·
2024-01-27 21:13
SLAM系列
slam
optimization
ORB_SLAM3:IMU初始化过程梳理以及自己的理解
2、IMU初始化过程中不断优化尺度,在单目相机的
视觉SLAM
中,尺度指的是场景中真实物体的物理尺寸与它在相机图像中所对应的像素距离之间的比例关系。
追风筝的人~TH
·
2024-01-26 22:30
ORB_SLAM3
计算机视觉
人工智能
c++
第一个项目总结:双目测距(python代码转为c++代码,最终输出点云图,再转为ros点云图,再实现可视化)
目录1.双目成像原理2.双目测距python代码3.python代码转为c++代码(1)双目相机参数(2)立体校正(3)立体匹配4.opencv的点云图转为ros点云图1.双目成像原理摘自《
视觉SLAM
zerogin+
·
2024-01-25 05:29
c++
opencv
开发语言
SLAM中的二进制词袋生成过程和工作原理
长期
视觉SLAM
(SimultaneousLocalizationandMapping)最重要的要求之一是鲁棒的位置识别。经过一段探索期后,当长时间未观测到的区域重新观测时,标准匹配算法失效。
深蓝学院
·
2024-01-17 16:30
机器学习
人工智能
【
视觉SLAM
十四讲学习笔记】第五讲——相机模型
专栏系列文章如下:【
视觉SLAM
十四讲学习笔记】第一讲——SLAM介绍【
视觉SLAM
十四讲学习笔记】第二讲——初识SLAM【
视觉SLAM
十四讲学习笔记】第三讲——旋转矩阵【
视觉SLAM
十四讲学习笔记】第三讲
趴抖
·
2024-01-17 10:05
视觉SLAM十四讲学习笔记
笔记
SLAM
2023-01-04日志
今天学习了惯导的一节课与
视觉SLAM
视觉里程计的部分知识。
独孤西
·
2024-01-13 08:03
视觉SLAM
十四讲|【五】相机与IMU时间戳同步
视觉SLAM
十四讲|【五】相机与IMU时间戳同步相机成像方程Z[uv1]=[fx0cx0fycy001][XYZ]=KPZ\begin{bmatrix}u\\v\\1\end{bmatrix}=\begin
影子鱼Alexios
·
2024-01-13 06:44
机器人
机器学习
视觉SALM与激光SLAM的区别
前言:这里比较一下
视觉SLAM
和激光SLAM的区别,仅比较其在算法层面上的一些不同,这里拿
视觉SLAM
算法:ORB-SLAM系列和激光SLAM算法:LOAM系列对比。
Jiqiang_z
·
2024-01-13 06:12
LOAM系列阅读笔记
SLAM学习笔记
机器学习
人工智能
深度学习
视觉SLAM
和激光SLAM适合的应用领域以及哪个更有前景
目录
视觉SLAM
的应用领域激光SLAM的应用领域
视觉SLAM
优势和局限性激光SLAM优势和局限性发展趋势和前景
视觉SLAM
的应用领域增强现实(AR)和虚拟现实(VR):
视觉SLAM
能够提供丰富的视觉信息
稻壳特筑
·
2024-01-06 07:08
SLAM
SLAM
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他