这一部分相当于对入门课程(1)无人驾驶概览的补充。
无人驾驶对安全精度和各种复杂技术的集成程度要求非常高
无人驾驶车一定是线控车。线控(by-wire),就是被电脑控制。
为了保证无人驾驶车的安全性,当它在路上行驶的时候,必须做到它跟云端是有连接的。无人驾驶车并不需要时时跟云端汇报接下来会如何处理,而是要告诉云端它的位置以及行驶规划。
高精度地图对于无人车的非同寻常的价值:
几何定位的原理和GPS原理类似。在道路上选几个feature,根据这些feature计算无人车所在的位置。
几何定位的精度很高,可以精确地算出无人车所在的位置。
目前比较流行的定位技术就是GPS、IMU和几何定位等一系列技术的融合。
RTK技术是为了提高GPS的精度高达10厘米。
RTK是一个静止站,接收卫星信号。无人车与RTK相隔不太远的情况下,对二者之间的干扰信号用差分抹平,就可以认为无人车和RTK收到的信号是一样的。
RTK技术的限制是,要求基站与车的距离在16公里以内。
Camera,主要优点是辨别颜色,对信号灯和交通标识等进行颜色识别;但缺乏对距离的判断能力。
Radar,利用电磁波探测目标。雷达发射电磁波对目标进行照射并接收其回波,由此获得目标至电磁波发射点的距离、距离变化率(径向速度)、方位、高度等信息。雷达对速度的判断尤其准,但对静态物体的误报较多。
雷达的应用场景是全天候的,由于电磁波可以绕过一些东西,所以准确性并不太高。
Lidar,以发射激光束探测目标的位置、速度等特征量。
工作原理:向目标发射探测信号,然后将接收到的从目标反射回来的信号与发射信号进行比较,作适当处理后,就可获得目标的有关信息。
激光雷达的最大优点是对距离的判断非常精准;
缺点是对环境的要求非常高,比如在雾霾天气里激光雷达的精准度就会降低很多。价格昂贵,种类繁多。
无人车上不停旋转的Lidar,是机械雷达。需要不停旋转,本身也又大又重,机械损耗较大,容易出现问题。基于机械雷达的新的激光雷达,比如MEMS lidar、flash lidar等。
传感器融合,就是要把所有传感器看到的信息综合在一起,这样无人车就能够更加全面具体地感知外界环境。
无人车在约束条件之下(避让、停止、超车),规划出一条可行路线。
无人车的轨迹规划:
实现对无人车的控制,需要知道踩刹车和减速的关系、踩油门和加速的关系等,当无人车拿到一些控制学参数后,就可以实现电脑对无人车的控制。
百度在云端后台有个巨大的仿真空间,每一辆无人车可以将自己遇到的复杂路况上传到云端,因此网上就有了一个非常大的数据库。
当无人驾驶的算法有更新时,就可以在云端的仿真场景中跑一下,检验是否能够应对云端的这些路况。这个步骤,就是为了确保每个无人车都称得上是“有经验的司机”。
安全方面最基础的一个模块ISO-26262。
ISO-26262是一个非常复杂、非常结构化的标准。比如说,如果一个硬件达到了ASIL D级别的要求,那么它的故障率是10 fit (Failures In Time, in one billion device-hours of operation),即10亿个小时里面出一次故障。这个故障率要比windows蓝屏的概率低很多。
ISO-26262是一个行业规范而不是一个例法,只覆盖Safety,不覆盖Security。Safety包含两个方面:
通过ISO-26262的认证是一个特别慎重的流程。
有两种问题,例如做车的加速系统:一种问题是车在人没有意识的情况下加速了。另一种是,需要车加速的时候它没有加速。需要把这些问题放到具体的情景中去考虑最严重的问题是哪一种,对于判断一个问题是否严重,ISO-26262给了三个判断标准:
ISO-26262的认证过程是一个“V型”。首先要看是什么开发环境,其次要分析问题的等级是怎么样的。如果是一个很高的等级需要判断这个问题出现的概率有多大。然后考虑这个问题具体要怎么解决。也就是先做High Level层级的,再到Function层级,然后到Technique层级。
Technique层级涉及软件和硬件。软件硬件确保了安全性后,再返回往上去做验证。对于ISO-26262更高级别的要求,它会要求有很多Redundant system。如果现行的系统坏了,下面还有一套系统。如果出现问题,另外这个系统具备使它停下来的机制。
ISO-26262代表了汽车行业在安全方面可以做到的极限,在汽车行业有很高的威望。
汽车行业是一个复杂的行业。车厂要把汽车组装起来,需要对供应商提各种各样的要求。一旦汽车出现了安全问题,供应硬件零件如果符合安全要求,车厂就要承担责任。而汽车的召回一般都是十亿美金这个量级的。所以这个认证它虽然不是法律,但它在打官司的时候特别有用。
(做一个APP可能以月计迭代都算慢的,但是做车可能需要十年的规划,我们现在开的车可能就是他们十年前规划出来的。)
百度Apollo的技术框架包括四层:线控车辆平台(Reference Vehicle Platform)、参考硬件平台(Reference Hardware Platform)、软件开放平台(Open Software Platform)、云端服务平台(Cloud Service Platform)。
2017年7月发布Apollo 1.0 循迹自动驾驶。
所谓循迹自动驾驶就是人开一段,然后车记录下人开的轨迹,再沿着这个轨迹不停的回放。Apollo 1.0典型的代表是农用机器人——阿波牛。在Apollo 1.0里不需要camera,也不需要Sensor,只需要一个GPS。也不需要做规划,有精准的定位就行。Apollo 1.0在内部用的时候,只是用来测量车的线控系统是否完备、运动学参数是否匹配。
2017年9月发布了Apollo 1.5 固定车道自动驾驶。
所谓固定车道自动驾驶,就是指在不变道的情况下处理一个车道内的所有行为,比如跟车、在车道内行进等。1.5版本有很多技术进步,加上了Lidar、Map、Perception、Planning等。基于Apollo 1.5也有合作伙伴,比如专门为老年人或残障人士设计的漫步车。
Apollo 2.0 简单城市道路自动驾驶。Apollo 2.0 几乎把所有的模块都点亮了,我们加入了Camera、Radar、Security、OTA等。
到2.5版本的时候,Apollo已经成长为全球最大最活跃的无人驾驶社区了。
长沙智能研究院结合 Apollo 2.5 限定区域高速自动驾驶发布了高速物流卡车自动驾驶解决方案。
最近发布的Apollo 3.0是一个里程碑式的进步。
加入了量产解决方案。Apollo 3.0相当于迈出了商业应用的一步。虽然场景只限定在园区内,但自动接驳小巴、自主泊车这些确实都是通过量产的方式进行的。
在Apollo 3.0我们除了量产解决方案之外,同时还发布了量产安全套件、量产解决方案套件,可以让开发者自行配置。
同时把硬件开发平台和车辆运行平台进行了升级,只要符合要求都可以进入。这样接入Apollo的成本会大大降低,开发者也会有更多的选择。
2018年3月18日晚间,一辆正在进行无人驾驶测试的Uber车在美国亚利桑那州Tempe市撞上一名行人。该行人被送医,随后被宣告抢救无效死亡。
根据初步调查结果,Uber车辆在撞上该名行人时,正处在自动驾驶状态,这是史上首例自动驾驶车辆在公开路面撞伤行人致死的案例。此事件,对无人驾驶敲响关于安全的警钟。
2018年6月22日美国公路委员会发布事故报告:在事故发生的前6秒,系统的传感器已经发现行人;在事故发生的前1秒,原车的应急制动AEB已经启动,但汽车并没有实施制动,原因是Uber在改装沃尔沃cx90时,对原车的刹车系统进行截断,由后续改装的电脑来发射控制指令,进行刹车。
自动驾驶的第一天条。
从自动驾驶研发的流程角度看,大致可以分为以下4个步骤:
自动驾驶分为三大系统:感知、决策和控制,每个系统里有对应的硬件系统。
感知系统分为三部分:
决策系统分为三部分:
控制系统部分分为车辆控制和警告系统。
车辆控制主要分为制动、转向、发动机和变速箱。警告系统主要分为声音、图像和震动 。以上是整个自动驾驶硬件系统的构架。
摄像头主要是用于车道线、交通标识牌、红绿灯、车辆和行人的检测。它的优点是检测信息全面且价格便宜,缺点是性能受天气影响较大。
摄像头主要由镜头、镜头的模组、滤光片、CMOS/CCD、ISP和数据传输这几部分组成。摄像头分为单目和双目。
摄像头的基本工作原理:光线通过摄像头前面的镜头和滤光片聚焦到后面的CMOS的Sensor上.Sensor将光信号进行曝光转化成电信号,然后通过ISP图像处理器转化成标准的RGB或者YUV的数据格式,最后传输到后端的计算机进行处理。
双目摄像头原理:通过两个图像之间视觉差计算,对任意障碍物提出警告和标识。
激光雷达的核心原理是TOF(Time of Flight),即一束光射出后碰到障碍物后,光会发生回波,并在APD上进行接收和计算光折返的距离。
根据它的扫描原理激光雷达可以分为同轴旋转、棱镜旋转、MEMS、OPA相控阵以及Flash。
激光雷达作用:用于感知、地图类的测绘和定位。
毫米波雷达主要用于交通车辆的检测。毫米波雷达主要是由射频天线、芯片和算法组成,基本原理是发射一束电磁波,然后观察电磁波回波的摄入差异来计算距离和速度。主要分为远距离77G和近距离24G两种。
它的优点是检测速度快且较准确,不受天气情况干扰,缺点是不能对车道线进行识别检测。
组合导航是通过GNSS板卡接收所有可见的GPS卫星信号并进行计算,从而得出被检物体在大地坐标系中的空间位置。
当车辆通过隧道、有建筑物群和树荫遮挡等路段时,GPS信号会产生遮挡不能提供很好的结算和实时导航,所以这种情况下需要融合惯性导航的信息。
惯性导航是一个完全封闭的系统,不受外界影响,可以直接给出车身的位置、速度和姿态。
自动驾驶汽车传感器的安装位置一般是:
目前传统车企和一些AI公司在自动驾驶上针对传感器两个重大的理念差异:
目前L4的适应范围是城市道路和高速路的一些自动驾驶,我国的高速路的限速是120km/h,根据道路摩擦系数可计算出不同速度下的刹车距离。加上整个系统反应时间,根据数学公式计算出下表。
目前自动驾驶的整个系统反应时间会在500毫秒之内,车辆制动是液压需要0.3~0.5秒,卡车用的气刹需要0.8秒。
目前市面上在售车,绝大多数都是低于这个技术指标,说明在售车性能都很好。从目前来看,对于传感器的要求,能测到150米已足够。
这是一个三角函数反正切函数,但是这个公式会多除以一个2,是为了避免漏检。
当激光雷达的两束线的角度之间有一个物体, 正好处于检测边缘它会产生一定的漏检,除以2是为了保证在每一个角度上都不会产生漏检。
检测到≠能识别。
目前百度Apollo平台,在同一车上用激光雷达4到5根线才可以很好地对障碍物进行分类。
现在像Velodyne 64线的激光雷达,0.4°分辨率下他的物体感知距离是50米。
未来自动驾驶传感器的趋势:自动驾驶传感器离不开多传感器的融合。激光雷达和摄像头都属于光学类的传感器,它们核心零部件和处理电路很相似,未来有可能将激光雷达和摄像头前端融合到一起,直接输出RGB、 XYZ融合后的颜色加点云信息,然后传输到后端的计算来进行处理。
美国创业公司Aeye开发的iRADAR系统,它不仅能真实的体现出二维世界的彩色信息,而且能将点云的信息叠加,每个像素点不仅有颜色信息还有空间坐标信息。
在自动驾驶汽车的计算单元部分,需要考量整体的车规、电磁干扰和振动方面的设计以及ISO-26262标准的要求。
防止单点故障:所有的CPU、GPU、FPGA、MCU和总线都要做冗余设计。
计算单元的集中式架构:将所有的工作都放到一个工控机当中。
这种架构的缺点是体积大、功耗高,不适应未来的量产;优点是方便代码的快速迭代,工控机卡槽的设计方便硬件更新和扩展 。
由于集中式的缺点,、将会考虑嵌入式的方案。将各传感器的原始数据先融合到一个Sensor Box中,在其中完成数据融合, 然后将融合后的数据给到后端计算平台处理。
Sensor Box作用:完成时间戳同步。目前所用传感器给出的原始数据该如何判断融合完成后是否是判断同一个目标,需要有一个时间戳同步,保证这个时间戳下每个传感器探测的都是同一个坐标系。
这种方案将原来集中式计算的功能拆解出来,可以降低整体系统的功耗,但是不足以面向更多的量产化。
ASIC的芯片是基于特定需求的特殊定制芯片,优点是比普通的GPU和FPGA体积更小、功耗更低、性能稳定和可量产。
现在的半导体产业非常成熟。自动驾驶算法公司只需做好芯片的前端设计,比如将算法固化下来,然后选择适用的IP核,最后进行EDA (电子自动化设计), 将芯片设计完的电路图再交由后端,像台积电这种芯片制造企业进行流片的生产。
芯片设计流程整体分为芯片设计、芯片制造、芯片封装三部分。现在整个半导体产业正在从深紫外(DOV)向极紫外(EUV)发展。
半导体正步入7纳米时代,新工艺对性能带来很大提升。对比16纳米工艺,7纳米工艺可提升40%性能,节省60%能耗。
自动驾驶线控系统(control by wire)指的是汽车的控制是由一些简单命令完成的,而不是由物理操作完成的。
线控部分相当于人的手和脚,在线控系统里执行上端的命令。主要分为三大部分:减速控制、转向控制和加速控制。
传统汽车的这些控制由液压系统和真空助力泵协助完成,自动驾驶汽车的线控需要用电控化的零部件来完成,如电子液压制动系统(EHB)。
上图是大陆制动的解决方案。它的MK C1集成液压和制动的模块,利用紧凑且轻重量的设计节省制动单元,通过电信号发出的制动信号也使制动距离更短。
MK100使用的ESC(车身电子稳定系统)可与MK C1之间进行相互备份。当MK C1系统失效时由MK100来接管。
大陆制动的所有的供电、执行、线路和管路图都是双备份的,极大地提高安全性,但是该系统只适用于乘用车。像卡车、客车等商用车都是通过气刹系统制动的。
目前很多自动驾驶车都使用EPS(电子助力转向系统)。EPS直接使用转向管柱与下面的齿条相结合,没有采用电控制。
英菲尼迪Q50的转向系统中,由离合器进行转向管柱的截断,当车辆启动时离合器松开,所有的自动驾驶指令都通过ECU(电子控制元件)发送控制指令到下端两个转向电机上,进行转向控制。
线控油门是对自动驾驶车辆加速度的控制,减速刹车踏板上有位置传感器可检测到刹车深浅度,该传感器传送指令到EMS(发动机制动系统)后,气门进气量越多,加速度即越快。
自动驾驶汽车目前大多是新能源车,新能源车通过驱动电机的扭力控制来完成对加速度的控制,从整个线控化来看,分为三个阶段:
在百度目前提供的参考设计分为:
后续Apollo会继续丰富生态圈,继续提供芯片和传感器的支持及选型。
传感器单元(Sensor Box)将所有的传感器信息融合到传感器单元中,完成整个时间戳的对准,将前处理的数据传输到后端的工控机计算单元上进行处理.
这是根据百度在使用传感器开发出来的,不一定适用所有开发者。后续Apollo将推出AXU扩展单元,附带PCI卡槽的单元将更加灵活。
在Apollo的抽象层中,有硬件接口,比如说内核驱动、USP Library(用户空间库)等。
USP Library(用户空间库)主要用在Can总线协议中。因为每个车厂/车型/批次其Can总线协议都不同,将控制指令信息写在USP Library中进行操控。
Apollo开发平台中,还有HAL硬件抽象层,这为了防止单一硬件短路而导致整个系统硬件内核崩溃的中间开发层。不同的硬件厂家可以选择开放所有源代码,或将编译后的代码发布在Apollo平台上。
Apollo完成代码核入的工作后会发布在GitHub上,开发者不需要针对不同硬件选型去开发不同的驱动。
最后,是VSI发布的自动驾驶产业链布局图。
自动驾驶产业是汽车新能源、IT、交通通讯、半导体人工智能、移动互联网等多个10万规模产业亿聚的大型聚合产业。
自动驾驶汽车是物质流、能量流、信息流的聚合体,需要软硬件行业的深度整合和合作才能保证自动驾驶产业的成功落地。