百度Apollo智能驾驶进阶课程——第二章 Apollo硬件开发平台

第二章 Apollo硬件开发平台

  • 1 无人驾驶车辆研发的四个步骤
  • 2 自动驾驶三大系统
  • 3 自动驾驶汽车的传感器
    • 3.1 摄像头(Camera)
      • 3.1.1 用途
      • 3.1.2 优缺点
      • 3.1.3 组成及分类
      • 3.1.4 基本工作原理
    • 3.2 激光雷达(LiDAR)
      • 3.2.1 工作原理
      • 3.2.2 分类及用途
    • 3.3 毫米波雷达(Radar)
      • 3.3.1 用途、组成及原理
      • 3.3.2 优缺点
    • 3.4 组合导航(GNSS+IMU)
      • 3.4.1 GNSS(GPS etc)
      • 3.4.2 惯性导航(Inertial measurement unit, IMU)
    • 3.5 各传感器用途比较分析
    • 3.6 角分辨率的计算
    • 3.7 传感器发展趋势
    • #补充说明
  • 4 自动驾驶汽车的计算单元
    • 4.1 计算单元
    • 4.2 芯片设计流程
  • 5 自动驾驶汽车的线控系统(control by wire)

1 无人驾驶车辆研发的四个步骤

百度Apollo智能驾驶进阶课程——第二章 Apollo硬件开发平台_第1张图片

  1. 软件在环:把自动驾驶的代码放进类似于GTA那种环境中进行测试。
  2. 硬件在环:把软件在环的数据之类的放到传感器等硬件中再跑一遍。
  3. 车辆在环:实车封闭场地测试。
  4. 司机在环:人-车-路测试,以及获得专业驾驶员的一些主观感受与建议。

2 自动驾驶三大系统

百度Apollo智能驾驶进阶课程——第二章 Apollo硬件开发平台_第2张图片里面的名词补充说明:
T-BOX即Telematics BOX,是车联网的通讯网关,它上接互联网下接CAN总线。例如手机上APP发送的开关门指令,都是通过T-BOX网关将操作指令发送到CAN总线来进行操控的。

3 自动驾驶汽车的传感器

百度Apollo智能驾驶进阶课程——第二章 Apollo硬件开发平台_第3张图片

3.1 摄像头(Camera)

3.1.1 用途

摄像头主要是用于车道线、交通标识牌、红绿灯、车辆和行人的检测。

3.1.2 优缺点

优点:检测信息全面且价格便宜。
缺点:性能受天气影响较大。

3.1.3 组成及分类

摄像头主要由镜头、镜头的模组、滤光片、CMOS/CCD、ISP和数据传输这几部分组成。
摄像头分为单目和双目。

3.1.4 基本工作原理

光线通过摄像头前面的镜头和滤光片聚焦到后面的CMOS的Sensor上。Sensor将光信号进行曝光转化成电信号,然后通过ISP图像处理器转化成标准的RGB或者YUV的数据格式,最后传输到后端的计算机进行处理。

3.2 激光雷达(LiDAR)

3.2.1 工作原理

激光雷达的核心原理是TOF(Time of Flight),即一束光射出后碰到障碍物后,光会发生回波,并在APD上进行接收和计算光折返的距离。

3.2.2 分类及用途

  1. 分类:根据它的扫描原理激光雷达可以分为同轴旋转、棱镜旋转、MEMS、OPA相控阵以及Flash。
  2. 用途:激光雷达不光是用于感知,地图类的测绘和定位也会使用到需要它。

3.3 毫米波雷达(Radar)

3.3.1 用途、组成及原理

  1. 用途:毫米波雷达主要用于交通车辆的检测。
  2. 组成:毫米波雷达主要是由射频天线、芯片和算法组成。
  3. 基本原理:发射一束电磁波,然后观察电磁波回波的摄入差异来计算距离和速度。

3.3.2 优缺点

  1. 优点:检测速度快且较准确,不受天气情况干扰。
  2. 缺点:不能对车道线进行识别检测。

3.4 组合导航(GNSS+IMU)

3.4.1 GNSS(GPS etc)

组合导航是通过GNSS板卡接收所有可见的GPS卫星信号并进行计算,从而得出被检物体在大地坐标系中的空间位置。

3.4.2 惯性导航(Inertial measurement unit, IMU)

当车辆通过隧道、有建筑物群和树荫遮挡等路段时,GPS信号会产生遮挡不能提供很好的结算和实时导航,所以这种情况下需要融合惯性导航的信息。

惯性导航是一个完全封闭的系统,不受外界影响,可以直接给出车身的位置、速度和姿态。

3.5 各传感器用途比较分析

百度Apollo智能驾驶进阶课程——第二章 Apollo硬件开发平台_第4张图片

3.6 角分辨率的计算

百度Apollo智能驾驶进阶课程——第二章 Apollo硬件开发平台_第5张图片说明:

  1. 当激光雷达的两束线的角度之间有一个物体, 正好处于检测边缘它会产生一定的漏检,除以2是为了保证在每一个角度上都不会产生漏检。
  2. 在0.4°这个分辨率之下我们在100米外其实就可以检测到一个人、车或骑行者。
  3. 在0.1°这个分辨率之下我们在400米外其实就可以检测到一个人、车或骑行者。

3.7 传感器发展趋势

自动驾驶传感器离不开多传感器的融合。激光雷达和摄像头都属于光学类的传感器,它们核心零部件和处理电路很相似,未来有可能将激光雷达和摄像头前端融合到一起,直接输出RGB、 XYZ融合后的颜色加点云信息,然后传输到后端的计算来进行处理。

#补充说明

关于无人驾驶汽车L1-L5的实现:

  1. 目前整车厂致力于实现:L1和L2,其主要目标——防止误检,这两个等级人作为操作的主体。举个例子,谁也不希望好好开着车结果汽车突然自己刹车。
  2. 目前很多AI公司致力于实现:L3+,其主要目标:防止漏检,这几个等级,汽车电脑已经作为控制主体。

4 自动驾驶汽车的计算单元

4.1 计算单元

百度Apollo智能驾驶进阶课程——第二章 Apollo硬件开发平台_第6张图片说明:

  1. 所有的CPU、GPU、FPGA、MCU和总线都要做冗余设计,以防止单点故障。
  2. 目前计算单元都是集中式的架构,即将所有的工作都放到一个工控机当中。
  3. 这种架构的缺点是体积大、功耗高,不适应未来的量产;优点是方便代码的快速迭代,工控机卡槽的设计方便硬件更新和扩展 。

由于集中式的缺点,未来将会考虑嵌入式的方案。将各传感器的原始数据先融合到一个Sensor Box中,在其中完成数据融合, 然后将融合后的数据给到后端计算平台处理。见下图:

百度Apollo智能驾驶进阶课程——第二章 Apollo硬件开发平台_第7张图片Sensor Box作用:目前所用传感器给出的原始数据该如何判断融合完成后是否是判断同一个目标,需要有一个时间戳同步,保证这个时间戳下每个传感器探测的都是同一个坐标系,时间戳的同步是在Sensor Box里面完成的。
这种方案将原来集中式计算的功能拆解出来,可以降低整体系统的功耗,但是不足以面向更多的量产化。

4.2 芯片设计流程

在自动驾驶的算法固定后,可以设计专门用于自动驾驶的芯片,这些芯片体积更小,能耗更低,适合批量生产。
百度Apollo智能驾驶进阶课程——第二章 Apollo硬件开发平台_第8张图片

5 自动驾驶汽车的线控系统(control by wire)

简单理解:车辆的控制是由一系列的命令执行,而不是物理的操作执行。比如传统汽车是靠液压系统和真空泵助力等完成操作,现在就需要一些比如电子液压系统(EHB)来进行操作。

你可能感兴趣的:(学习笔记)