Apollo安装与仿真平台介绍(一)

Apollo安装与仿真平台介绍(一)_第1张图片
主要分为四个架构,由底层到顶层分别是:
1、Open Vehicle Certificate platform
2、Hardware Development Platform
3、Open Software Platform
4、Cloud Service Platform

一、Open Vehicle Certificate platform

最底层是一个车辆控制平台,该车辆平台应具有线控条件,比如说换挡、加减速、转向等,通过这些指令完成对应操作。

二、Hardware Development Platform(传感器)

Computing Unit:无人驾驶系统需要一个高性能的计算单元。
GPS/IMU:GPS定位的基本原理,车载GPS接收器计算无线电信号到达卫星Satellite 1 2 3的距离,再利用三角定位法定位车辆位置;在惯性坐标系中,IMU用于测量汽车在3个方向(X,Y,Z)的加速度,将加速度对时间进行积分,可获得距离数据,然后将距离数据导入导航系统中即可测量车辆的速度,偏航角和位置信息。
Camera:视觉传感器,也就是摄像头,有单目,双目,三目,环视摄像机(鱼眼镜头)。依靠成像的像素点图,从而让无人驾驶车了解周围环境。比如红绿灯的识别,红绿灯用来做识别成本比较低(Apollo2.0开放的一个功能),通过两个不同焦距的camera拿到对应红绿灯,但红绿灯的原始数据是采集到高精地图里。
Lidar:激光雷达原理,发送和接受激光信号的时间差乘以光速,即为激光发生器和障碍物间的距离。Apollo1.5之后加入了感知周围环境的激光雷达,到2.5又增加了一个国产的禾赛的Pandora.
Radar:毫米波雷达,频率在10GHz~200GHz的电磁波,波长在毫米数量级(1-10mm)。目前无人驾驶应用的主要有三种,短距离雷达24GHz,长距离雷达77GHz,79GHz。毫米波雷达主要用于远距离跟车、障碍物检测等等。
Ultrasonic Sensor:安装于车辆前后保险杠上,用于近距离的大概5米之内的一些障碍物检测。
HMI Device:用于给车辆发指令的一些设备,比如平板。
Black Box:类似于飞机上的黑匣子,是百度开放的一个商业化的硬件,百度会记录关键时刻的执行操作。
Sensor Unit:Apollo3.0发布的硬件开发平台,称其为ASU,相当于拓展传感器的接口的设备。

三、Open Software Platform

RTOS:根据传感器测量的数据信息,及时进行计算和分析并执行相应的操作。在Apollo里是通过补丁的方式达到实时效果。
Runtime Framework:Apollo ROS等。
Map Engine:高精度地图模块
Localization:定位,从Apollo1.0开始增加了RTK定位方式,后面又有多传感器融合定位。
Perception:感知。APollo1.5之后增加了一个主传感器激光雷达,增强了感知能力,2.5之后增加了camera和radar融合感知的方案(此方案不需要Lidar),可以实现对车道线和车辆前方障碍物的检测的识别。
Planning:自主规划,从起始点到目标点的轨迹和速度规划,输出Trajectory。
Guardian:是一个安全模块,信号指令需先经过Guardian过滤再交给control,Control用来解析这个对应的控制指令,比如将速度、加速度解析为车辆可以识别的油门量、刹车量等。
End-to-End:提前记录测试数据,以方便后面离线模拟。
HMI:发送指令的模块

四、Cloud Service Platform

HD Map:高精地图。
Simulation:仿真验证,减少实地测试,提高效率。
Data Platform:数据集,比如 红绿灯数据、障碍物数据等。
Secunity:安全
OTA:空中软件升级
DuerOS:智能语音系统

你可能感兴趣的:(Apollo课程)