提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加
TODO:写完再整理
在项目和平时的学习中,我对机器人/无人驾驶的决策规划模块进行了划分,当然划分的方法有很多,我的划分方式仅供参考
(1)动态障碍物行为预测模块(Behavior prediction)–结合感知和高精度地图信息,估计周围障碍物未来运动状态
(2)执行机构的轨迹规划模块(Trajectory_planning)–执行机构如机器人载体上的机械臂、串行云台等的运动轨迹规划
(3)任务决策模块(Mission_planning)–任务决策模块比较偏业务层了,处理机器人/无人驾驶的各种任务,主要分为三个方面:车底盘航线业务决策(交规、横向换道等等)、执行应用机构业务决策(机械臂、人机交互等等)、不同场景的导航方案切换决策(组合导航、融合导航)
(4)前端路径探索模块(path_finding)–全局路径规划算法难度不算复杂,找到一条可通行的(必须满足)、考虑动力学的(尽可能满足)、可以是稀疏的路径base_waypoints【由于其只考虑了环境几何信息,往往忽略了无人机本身的运动学与动力学模型。因此,其得到的轨迹往往显得比较“突兀”,并不适合直接作为无人机的控制指令】
(5)后端轨迹处理模块(motion_planning)–我主要归纳整理为三个方向:(1)对base_waypoints进行简单处理及生成方向、(2)对base_waypoints轨迹优化方向【一般是二次优化,这里用的较多的事优化方面的知识】、(3)进行对应功能的replan方向(replan之前的预处理、进入replan的条件、停障replan、避障replan、纠偏replan、换道replan、自动泊车replan、穿过狭窄道路replan等等),这部分内容使用的方法比较专
(6)路径跟踪模块(trajectory_following)–这个模块就得针对机器人载体了,如无人驾驶使用得阿克曼模型可以采用几何的pure pursuit纯追踪算法,更好的可以用模型预测控制MPC方法,还有强化学习做的(效果怎样我就没验证过了);当然也可能事麦克纳姆轮车、差速车PID、还有无人机的三维轨迹跟踪等等
(7)碰撞检测模块
(8)集群多机器人规划模块
当然,这种划分方式是我权衡了原理和功能粗略划分的,在实际产品研发过程中,需要理解了各个算法的功能和定位的基础上融汇贯通,不能生搬硬套,如全段通过hybrid A探索出来的路径与A、RRT*探索出来的路径更平滑,后端轨迹优化的任务就不用这么重了;又如,机器人/无人驾驶项目研发的需求业务还没发展到能响应很多功能阶段,任务决策使用简单的状态机(fsm)就可以对现有任务进行状态转移了
本文先对开源无人驾驶项目autoware解读做个简单的介绍,具体内容后续再更,其他模块可以参考去我其他文章
提示:以下是本篇文章正文内容
Autoware是世界上第⼀款⽤于⾃动驾驶汽⻋的“⼀体化”和“多合一”开源软件。Autoware的功能主要适⽤于城市,但⾼速公路和⾮市政道路同样可以使⽤。【防盗标记–盒子君hzj】同时在依赖ROS建⽴的Autoware⾃动驾驶开源软件上可以提供丰富的开发和使⽤资源
Autoware支持以下功能:
(1)传感器校准
(2)传感器融合
(3)各种数据记录
(4)3D本地化
(5)3D映射
(6)面向云的地图连接自动化
(7)汽车/行人/物体检测
(8)交通信号检测
(9)车道检测
(10)对象跟踪
(11)路径规划
(12)智能手机导航
(13)加速/制动/转向的路径跟踪控制
(14)软件仿真
(15)虚拟现实
整个autoware有很多种算法集成在一起,没有一键启动的说法,先按照自己的需求配置好相应功能的启动项,再启动
每个模块采用它自己的一套算法
这个框架少了高精度矢量地图的部分【SLAM建图部分–静态地图及矢量化,其他地图图层生成】
(1)介绍
自动驾驶车辆必须检测周围物体,如其他车辆、行人和行人交通信号灯。有了这些信息,我们能遵守交通规则,避免事故发生。检测模块使用摄像头和激光雷达,结合传感器融合算法和深度学习网络进行目标检测。【防盗标记–盒子君hzj】目标识别与检测,基于先进的YOLOv3检测模型,实时地检测车辆前方环境以及障碍,实现自主停障和在监视屏上显示当前行驶的状态
(2)关键技术
1)视觉全景图像融合技术
将独立的图像拼接成无缝360度的环视图
2)视觉目标检测识别技术
从图像数据中准确阅读文本信息、识别交通标识、识别动态人车信息
3)点云数据配准技术
点云畸变的纠偏
4)点云障碍物检测技术
从激光雷达中的点云数据中识别检测出行人、车辆障碍物等等
(3)目标检测算法
探测物体,比如车辆,行人和交通信号灯,以避免碰撞和违反交通规则。【防盗标记–盒子君hzj】我们专注于在移动物体(车辆和行人)上,虽然我们的平台也能识别交通信号灯。我们使用可变形零件模型(DPM)算法进行检测车辆和行人。
CUDA是NVIDIA开发的一个编程框架,用于通用计算在GPU
(4)目标跟踪算法
我们解决这个跟踪问题使用了两种算法:
卡尔曼滤波是在线性系统下使用的假设我们的自动驾驶汽车跟踪时匀速行驶它的计算量是重量轻,适合实时处理
粒子过滤器可以适用于非线性跟踪场景我们的自动驾驶汽车和履带车辆正在移动。
我们使用卡尔曼滤波器和粒子滤波器,这取决于给定场景。我们还将它们应用于二维(图像)平面和三维平面上的跟踪三维(点云)平面
从激光雷达单帧扫描读取点云信息,提供基于激光雷达的目标检测。【防盗标记–盒子君hzj】主要使用欧几里德聚类算法,从地面以上的点云得到聚类结果。除此之外,可以使用基于卷积神经网路的算法进行分类,包括VoxelNet,LMNet.
读取来自摄像头的图片,提供基于图像的目标检测。主要的算法包括R-CNN,SSD和Yolo,可以进行多类别(汽车,行人等)实时目标检测。
使用image_detector的检测结果完成目标跟踪功能。算法基于Beyond Pixels,图像上的目标跟踪结果被投影到3D空间,结合lidar_detector的检测结果输出最终的目标跟踪结果。
输入激光雷达的单帧扫描点云和摄像头的图片信息,进行在3D空间的更准确的目标检测。激光雷达的位置和摄像头的位置需要提前进行联合标定,现在主要是基于MV3D算法来实现。
将lidar_detector和image_detector的检测结果进行融合,image_detector 的识别类别被添加到lidar_detector的聚类结果上。
预测检测目标的下一步位置,跟踪的结果可以被进一步用于目标行为分析和目标速度分析【防盗标记–盒子君hzj】。跟踪算法主要是基于卡尔曼滤波器。
自动驾驶汽车的安全是一个高度优先的问题。因此,感知模块必须计算出“自我”飞行器在三维空间中的准确位置映射,并识别周围场景中的对象作为交通信号灯的状态。预测模块使用定位和检测的结果来预测跟踪目标。通过卡尔曼滤波算法和3D高精度地图实现,基于概率机器人技术和基于规则的系统,部分还使用深度神经网络
使用目标跟踪的结果来预测临近物体的未来行动轨迹,例如汽车或者行人
使用moving_predictor的结果来进一步预测未来是否会与跟踪目标发生碰撞【防盗标记–盒子君hzj】。输入的信息包括车辆的跟踪轨迹,车辆的速度信息和目标跟踪信息
传感器和计算机的规格在很大程度上取决于功能自动驾驶要求
(1)摄像头(Camera)信息
全方位覆盖360度视野,用来检测运动物体,用来检测运动物体识别红绿灯
(2)激光雷达(lidar)信息
Velodyne激光雷达传感器、Ibeo激光雷达传感器、Hokuyo激光雷达传感器、【防盗标记–盒子君hzj】毫米波雷达和惯性测量装置通常是自动飞行器的首选
摄像机和激光雷达传感器通常在10到100赫兹的频率下运行,每个任务自动驾驶必须在一定条件下进行时间限制
点云库(PCL)是主要用于管理激光雷达扫描和三维地图数据
(3)惯导系统(IMU)信息
(4)定位系统(GNSS)信息
定位系统RTK传感器信息、定位系统gnss传感器信息
接收来自卫星的全球定位信息,通常与陀螺IMU传感器和里程表相结合,以确定位置信息。
传感器采集方案
采集、建图、处理数据部分是有一辆数据采集车车独立执行的
(1)低成本移动激光测量进行数据采集的方案
在小车等移动载体上采集得到激光雷达高精度点云数据、甚至是相机数据、GPS/IMU航迹里程计数据
(2)一体化高精度地图SLAM的解决方案
通过在每次扫描时注册3D点云数据,创建并更新3D地图。这通常被称为SLAM,【防盗标记–盒子君hzj】基于实时定位与建图(SLAM)技术,把道路上的路标、障碍物等信息数字化,精确的描绘出来
高精度地图的输出格式是怎样的?
https://github.com/ApolloAuto/apollo/blob/master/modules/map/data/README.md
参考README 所示,xml, bin, txt, lb1 都是不同的文件格式,适配不同的读取器,内容是一致的
(1)矢量地图图例
(2)矢量地图的定义
矢量数据结构是通过记录坐标的方式,尽可能精确地表示点线多边形等地理实体,自然地理实体的位置是用其在坐标参考系中的空间位置来定义的,坐标空间设为连续,允许任意位置长度和面积的精确定栅格图是由组成图形的大量像素点来确定,栅格结构表示的是不连续的,离散的数据,其最明显的特点是属性明显,定位隐含
矢量地图也称为高清地图,矢量地图包含自主导航模块需要用来理解周围环境的数据,【防盗标记–盒子君hzj】矢量地图或道路网络地图包含的所有离散信息,例如交通信号灯,交通标志,十字路口,停车线等的位置
(3)矢量地图的业务场景
(无人驾驶场景)车道线路径规划+巡航+道路级的任务规划(换道,返航,停障等等)
规划算法按重要性排序的矢量地图组件及在自动驾驶系统中的用途
(4)地图矢量化过程(基于人工绘制矢量地图)
将栅格地图或其他格式的地图数据转换为矢量地图数据的过程叫做地图矢量化,【防盗标记–盒子君hzj】通过arcmap或者mapinfo等工具,将栅格数据的地图路网和POI数据进行矢量化绘制,以不同图层的形式加载显示,地图矢量化以后精度更高,路网拓扑更清晰,数据量也更小,缩放不会失真。
将栅格数据或者其他格式的数据通过一定的方式转换为矢量数据的过程就叫矢量化。【防盗标记–盒子君hzj】通俗点可以这样理解,在一张地图图片上,描绘出点线面文件…
基于先验完全信息的算法【防盗标记–盒子君hzj】,在高精度地图中绘制出矢量地图,矢量地图包含了人工设定的多条可行路径和交通规则(使用autowere的方法)
步骤如下:
(1)使用点云制图软件制作高精度地图
(2)手动方式制作矢量地图的工具
工具一:vector map builder的使用
工具二:ztlidar的使用
(5)Autoware ADAS Map矢量地图的元素介绍
1、介绍
Autoware ADAS Map的矢量地图的格式是Vector map格式,Vector map中定义的地图元素多样,每种元素的属性字段各异,各个元素之间通过特殊字段链接起来,且元素均采用.csv格式独立保存
用于储存矢量地图所需的要素,【防盗标记–盒子君hzj】Autoware将激光点云数据进行分类和下采样完成后,把所有的点按照其定义的类型重新组织,其中point代表点云中某点,Autoware对每个点进行唯一编号,包含经纬高blh和平面xy坐标。之后根据分类好的元素,按照line、vector、area分别组织数据
2、元素分类
定义于src/autoware/core_planning/lane_planner/include/lane_planner/lane_planner_vmap.hpp。用于储存决策规划所需要的部分矢量地图要素数据
struct VectorMap
{
std::vector<vector_map::Point> points;
std::vector<vector_map::Lane> lanes;
std::vector<vector_map::Node> nodes;
std::vector<vector_map::StopLine> stoplines;
std::vector<vector_map::DTLane> dtlanes;
};
Autoware将激光点云数据进行分类和下采样完成后,把所有的点按照其定义的类型重新组织
1)vector_map::Point【位于src/autoware/messages/vector_map_msgs/msg/Point.msg】
2)vector_map::Lane【位于src/autoware/messages/vector_map_msgs/msg/Lane.msg】
3)vector_map::Node【位于src/autoware/messages/vector_map_msgs/msg/Node.msg】
4)vector_map::StopLine【位于src/autoware/messages/vector_map_msgs/msg/StopLine.msg】
5)vector_map::DTLane【位于src/autoware/messages/vector_map_msgs/msg/Line.msg】
1、点元素(point.csv\node.csv\dtlane.csv)
(1)点元素(point.csv)格式说明
point.csv中存储了地图中所有点元素的几何位置属性,包括路径节点node、路径特征补充节点dtlane、线状面状端点
格式说明如下:
point点的属性如下:
1、通常point点相隔1米分布
2、point点为属性变更点或者多条lane规划线的链接节点
(2)点元素(node.csv)格式说明
Node是地图生成车道lane的元素,是车道lane元素的节点,【防盗标记–盒子君hzj】node节点相连形成了车道lane。在绘制地图时,绘制一个node后会在point.csv中存储几何及位置信息,node.csv与point.csv通过PID相链接
(3)点元素(dtlane.csv)格式说明
Dtlane是对车道元素lane的几个形状特征的补充元素,在绘制地图时,【防盗标记–盒子君hzj】绘制一个Dtlane后会在point.csv中存储几何及位置信息,node.csv与point.csv通过PID相链接
2、车道元素(lane.csv)
(1)车道元素(lane.csv)格式说明
lane是车道元素,地图中的lane代表小车形式的轨迹路径,一般是道路的中心线,在显示道路中是没有的,是靠人为规划出来的
其中,node为路径lane的节点,【防盗标记–盒子君hzj】所以每段lane的长度即是before node和forward node之间的距离
lane代表了地图中所有可通行的路径,在绘制时要把所有可以通行的情况绘制清楚
3、线元素(line.csv\whiteline.csv\stopline.csv)
(1)线元素(line.csv)格式说明
line.csv储存了所有线元素的基本属性
(2)线元素(whiteline.csv)格式说明
Whiteline是车道线,即是真是存在的线,【防盗标记–盒子君hzj】如道路上的白线、黄线、双黄线、虚白线(导流线)等等
4、杆元素
5、面元素(area.csv/crosswalk.csv/road_surface_mark.csv)
(1)面元素(area.csv)格式说明
area储存了所有的面元素的基本属性,area由点point和线line组成,端点信息储存在point.csv中,边线信息储存在line.csv中
其中,面元素包括:人行横道区域(crosswalk.csv)、【防盗标记–盒子君hzj】斑马线区域(zebrazone.csv)、道路标志(road surface_mark.csv)、下水井盖区域(gutter.csv)
格式说明如下:
(2)面元素(crosswalk.csv)格式说明
格式说明如下:
(3)面元素(road surface_mark.csv)格式说明
格式说明如下:
3、元素关系图例
(1)点元素和lane元素的关系
Point、node、dtlane、lane是矢量地图vector的四个必要元素,缺一不可。使用该四种元素就可以构建一个最简单的高精度地图,把地体导入autoware系统中进而实现路径规划仿真极真车操作但由于元素比较少,对于道路的停止线、红绿灯、等更复杂的路面无法满足自动驾驶的操作,还需要更多的元素
(6)地图用于规划
(1)全局地图的建立(用于路径巡航)
三维雷达通过SLAM建立三维稠密点云全局地图,【防盗标记–盒子君hzj】通过arcmap或者mapinfo等工具,将栅格数据的地图路网、POI数据和三维稠密点云地图进行矢量化绘制在矢量地图,矢量地图提供相关.csv文件给全局规划用,一般用于巡航
(2)局部地图的建立(用于轨迹规划)
三维雷达建立稠密点云局部地图,局部点云地图生成八叉树代价地图给三维局部规划,点云地图压缩成二维点云地图进而生成栅格代价地图给局部规划,一般用于道路级的任务规划(换道,返航,停障,避障等等)
(7)把地图上传到服务器,进行共享调用
Lane.csv文件经过多层处理得到的结果是约1米的waypoint,waypoint包含位置和速度两个信息
方法一:Rosbag store中有很多传感器数据集需要付费进行使用,复杂开发的时候要给钱了
方法二:自己搭ros的仿真环境,获取传感器数据
定位模块使用SLAM算法、3D map(高精度地图)服务、NDT来实现,【防盗标记–盒子君hzj】使用从CAN消息和GNSS/IMU传感器获取的里程计信息,通过Kalman滤波算法对定位结果进行补充
Autoware主要使用NDT算法进行局部化。这是因为无损检测的计算成本算法不受地图大小的支配,从而使高清晰度和高分辨率3D的部署大比例尺地图
Autoware还支持其他本地化和映射算法,如迭代最近点(ICP)算法。这允许Autoware用户为其应用程序选择最适合的算法
计算车辆当在全局坐标的当前位置(x,y,z,roll,pitch,yaw),使用LIDAR的扫描数据和预先构建的地图信息。autoware推荐使用正态分布变换(NDT)算法来匹配激光雷达当前帧和3D map
转换GNSS接收器发来的NEMA消息到位置信息(x,y,z,roll,pitch,yaw)。结果可以被单独使用为车辆当前位置,也可以作为lidar_localizar的初始参考位置
主要使用IMU传感器预测车辆的下一帧位置,【防盗标记–盒子君hzj】也可以用来对lidar_localizar和gnss_localizar的结果进行插值。
autoware的规划任务计划是半自主的,在更复杂的场景中,例如停车和恢复工作错误,司机需要监督路径
规划是基于概率机器人技术和基于场景规则的系统根据交通规则,autoware使用基于场景规则的自主分配路径的机制,比如换道,合并,前进
根据预先构建的高精地图,基于概率机器人技术规划一条从起点到终点的、安全的、且光滑的轨迹。车辆基于规划路线完成自主巡逻任务
在全局中,指定一个起点,一个终点,通过全局规划得到一条全局静态路径,一旦分配了全局路径,本地马上启动运动规划器
寻找到达目标地点的全局路径并发布的一系列十字路口结果,路径由道路route网中的一系列十字路口组成。
根据route_planner发布的一系列十字路口结果,确定全局路径由哪些lane组成,lane是由一系列waypoint点组成
用于产生到达目的地的一系列waypont点,【防盗标记–盒子君hzj】它与lane_planner的不同之处在于它是发布单一的到达目的地的waypoint路径,而lane_planner是发布到达目的地的一系列waypoint数组
waypoint_maker 是一个保存和加载手动制作的waypoint文件的工具。为了保存waypoint到文件里,需要手动驾驶车辆并开启定位模块,然后记录车辆的一系列定位信息以及速度信息, 被记录的信息汇总成为一个路径文件,之后可以加载这个本地文件,并发布需要跟踪的轨迹路径信息给其他规划模块
planning负责根据给定的一段temporal waypoint轨迹生成局部可行轨迹全局轨迹,考虑到车辆状态,三维地图所示的位置及其局部的障碍物分布情况,周围对象、交通规则和期望的目标,在局部环境下,规划出来一条最优的路径
更新车辆速度信息,注意到给定跟踪的waypoint里面是带有速度信息的,这个模块就是根据车辆的实际状态进一步修正速度信息,以便于实现在停止线前面停止下来或者加减速等等
实现Hybrid-State A*查找算法,生成从现在位置到指定位置的可行轨迹,【防盗标记–盒子君hzj】这个模块可以实现避障,或者在给定waypoint下的急转弯,也包括在自由空间内的自动停车
实现了State Lattice规划算法,事先定义好的参数列表和语义地图信息,基于mini_jerk样条曲线实现局部路径生成与优化,在当前位置前方产生了多条可行路径,最终得到无人车执行的最终轨迹final waypoint,可以被用来进行障碍物避障或车道线换道
这个模块实现了 Pure Pursuit算法来实现轨迹跟踪,可以产生一系列的控制指令来移动车辆,这个模块发出的控制消息可以被车辆控制模块订阅,或者被线控接口订阅,最终就可以实现车辆自动控制
原理和实现写在我其他博客
Autoware实现了一个智能状态机、做出决策以响应道路状况。
通过深度学习的方法,根据驾驶状态,判断行车过程中的行为决策,【防盗标记–盒子君hzj】例如当车道变换、合并和超车
控制车辆跟随运动规划器生成的路径
Autoware已安装并通过许多有线控车辆进行了测试。Autoware的计算输出是一组速度、角速度、轮角和曲率。这些信息通过车辆接口作为命令发送给有线控制器。控制转向和油门需要由线控器来控制。经常采用PID
一般用于线控底盘的油门、刹车和转向的控制
通常采用PID控制器、在某些参数不正确的情况下,PID控制器将无法控制车辆稳定。
这个方法将路径分解为多个航路点是路径的离散表示。【防盗标记–盒子君hzj】每次控制期间循环,算法搜索下一个最近的航路点在汽车的前进方向。航路点是在临界距离下搜索。这减少了突然的转弯或跟车时可能发生的角度变化偏离路线
在另外的博客写
(1)介绍
wf_simulation相当于一个虚拟的小车提供了一个仿真的汽车坐标base_link,能够响应速度转向指令,并反馈base_link的当前位置,姿态、速度
(2)操作步骤
(3)autoware有两个仿真环境,【防盗标记–盒子君hzj】一个是gazebo,一个是LGSVL
自己根据官方的源码已经能学到很多东西了,根据界面操作和launch文件逻辑,结合节点图去分析程序
Autoware源码可以去官网的git下载进行阅读学习
链接统一放在文章末尾的参考资料中
根据程序的架构来解读的方法(自己的经验而已)
步骤一:先按照教程把效果跑出来
步骤二:阅读注释源码
步骤三:根据工程的架构有一个整体的理解
步骤四:学习函数的功能和输入输出接口、在学习函数的实现过程
步骤五:根据百度谷歌来理解原理
步骤六:移植到自己的工程架构中,加深工程部署的经验
.
.
.
1、先看main函数,(1)设置的参数、(2)发布的话题、(3)订阅的话题
2、分析订阅的回调函数的代码逻辑
3、得到节点实现的功能
根据autoware界面上功能的操作进行代码解读
这个涉及原理,在本文科普中不详细分析,功能包太多了,我尽量挑我用过的在其他博客中分享出来,先战略转移,毕竟又要10点下班了
.
.
.
这相当于autoware各个功能包的分类,我是理解成一个导航架构,按着这个结构和功能我会把具体每个功能包的原理在其他博客写一些吧
先放个总图哈
目的:
【主要式发掘autoware有什么功能】
【快速搭建出效果评价-看源码实现、把源码移植到自己的工程上】
这里的步骤教程其实在autoware的官方git已经描述的很详细了,还有油管视频,这个就简单吧步骤捋一捋…
(1)Autoware的官网
https://github.com/Autoware-AI/autoware.ai
https://www.autoware.ai
(2)sample rosbag files
这个用tizi下载比较快
(3)Autoware Wiki介绍
https://github.com/Autoware-AI/autoware.ai/wiki
(4)Autoware-Manuals
https://github.com/CPFL/Autoware-Manuals
(5)论文
S. Kato, S. Tokunaga, Y. Maruyama, S. Maeda, M. Hirabayashi, Y. Kitsukawa, A. Monrroy, T. Ando, Y. Fujii, and T. Azumi,``Autoware on Board: Enabling Autonomous Vehicles with Embedded Systems,’’ In Proceedings of the 9th ACM/IEEE International Conference on Cyber-Physical Systems (ICCPS2018), pp. 287-296, 2018. Link
S. Kato, E. Takeuchi, Y. Ishiguro, Y. Ninomiya, K. Takeda, and T. Hamada. ``An Open Approach to Autonomous Vehicles,’’ IEEE Micro, Vol. 35, No. 6, pp. 60-69, 2015. Link
.
.
.
我这样表达步骤可能更清晰(自己的经验,仅供参考)
.
.
.
Autoware仅仅是一个工具,实现的源码内容还是得靠自己的去学,学习源码原理参考百度,Autoware的整体是比较复杂的,整体解读清楚它的原理短时间是不可能实现的,所以别整体的源码去看,从自己需要的模块逐个突破
(1)autoware的bag数据包得改成自己得做验证,有实物传感器更好啦,没有的化自己搭gazebo仿真一样能拿到传感器数据
(2)autoware在ubuntu18.04也可以装1.12以上的版本【防盗标记–盒子君hzj】
(3)安装autoware从简单装起来,用到什么装什么
(4)装好autoware启动界面肯定亏出现花屏的现象,按照博客来pip装wx,再改文件就行
https://www.cxybb.com/article/m0_46673077/115400045
https://codeleading.com/article/10816031861/
(5)使用bag_demo运行起来的时候仅仅只有一个CPU在运行是正常的,后面用自己的bag数据包自己选择算法的时候CPU运行就可选了
.
.
.
(1)官方视频介绍(ROSCon 2017 )
https://www.youtube.com/watch?v=XlXHLoIDohc
(2)官网提供的 PPT 简介,文档说明
https://github.com/CPFL/Autoware-Manuals
(3)autoware 的 gitlab 链接
https://gitlab.com/autowarefoundation/autoware.ai/autoware
(4)官方数据包rosbag下载(付费)
https://data.tier4.jp
像我一样没钱的可以考虑自己搭个gazebo的仿真环境就好,毕竟学生太…
(5)公司官网
https://tier4.jp/
(6)autoware 操作教程(很全)
https://www.ncnynl.com/archives/201910/3401.html
(7)优酷上演示 autoware 各种 demo 的配置视频
https://i.youku.com/i/UNDIxMDQ1MTkzNg==?spm=a2h0j.11185381.module_basic_dayu_sub.DLDDH2~A
(8)优酷 autoware 的中文介绍
https://v.youku.com/v_show/id_XMzExNDQ0NzE2NA==.html?spm=a2hzp.8253869.0.0
(9)创客智造的教程
https://www.ncnynl.com/archives/201910/3401.html
(10)PIX教程
https://www.cnblogs.com/hgl0417/p/11844135.html
https://www.cnblogs.com/hgl0417/p/14617025.html
(11)autoware的gazebo仿真博客教程【知道效果可以学习源码原理】
假设你已经安装好了Autoware,Autoware源码中其实已经配置有Gazebo仿真环境,当然你也可以根据自己的需要另外下载自动驾驶汽车的仿真模型。该汽车模型已经默认配置好了Velodyne HDL-32E 激光雷达、IMU和相机
在Gazebo仿真环境配置自动驾驶汽车:https://blog.csdn.net/Travis_X/article/details/105418119
给仿真环境中的自动驾驶汽车更换或添加传感器:https://blog.csdn.net/Travis_X/article/details/105418550
使用NDT构建点云地图:https://blog.csdn.net/Travis_X/article/details/105455195
使用Hybrid a*进行路径规划:https://blog.csdn.net/Travis_X/article/details/105949471
使用聚类算法作物体检测:https://blog.csdn.net/Travis_X/article/details/106113427
使用Pure Pursuit和MPC进行路径追踪:https://blog.csdn.net/Travis_X/article/details/106116998