参考资料
ADAS可以分为信息辅助与控制辅助两大类别(ADAS也可以认为是智能汽车的缩写)
ACC(Adaptive Cruise Control),自适应巡航系统
在车辆行驶过程中,安装在车辆前部的车距传感器(雷达/摄像头)持续扫描车辆前方道路,同时轮速传感器采集车速信号。当与前车之间的距离过小时,ACC 控制单元可以通过与制动防抱死系统、发动机控制系统协调动作,使车轮适当制动,并使发动机的输出功率下降,以使车辆与前方车辆始终保持安全距离。
AVM(Around View Monitoring),360°全景影像系统
通过多个(一般四个)超大广角鱼眼镜头拍摄图像,经过特殊算法对所拍摄图像进行畸变矫正以及拼接,形成物体周围的全景影像的系统。该系统多应用于车辆,实现无盲区行驶,全景泊车等功能,对安全驾驶有所帮助。
AEB(Autonomous Emergency Braking),自动紧急制动
AEB 系统采用雷达测出与前车或者障碍物的距离,然后利用数据分析模块将测出的距离与警报距离、安全距离进行比较,小于警报距离时就进行警报提示,而小于安全距离时即使在驾驶员没有来得及踩制动踏板的情况下,AEB 系统也会启动,使汽车自动制动,从而为安全出行保驾护航。
FCW(Forward Collision Warning),前向碰撞预警系统
前向防撞预警常用的也是采用摄像头传感器,通过拍摄前方车辆车尾形状与数据库里的形状进行比对,在匹配算法计算出可能发生碰撞的时距,提前向驾驶员发出警报。FCW 系统本身不会采取任何制动措施去避免碰撞或控制车辆,这是FCW与AEB存在的主要差异。
LDW(Lane Departure Warning),车道偏离预警
车道偏离预警系统主要由 HUD 抬头显示器、摄像头、控制器以及传感器组成,当车道偏离系统开启时,摄像头(一般安置在车身侧面或后视镜位置)会时刻采集行驶车道的标识线,通过图像处理获得汽车在当前车道中的位置参数,当检测到汽车偏离车道时,传感器会及时收集车辆数据和驾驶员的操作状态,之后由控制器发出警报信号,整个过程大约在 0.5 秒完成,为驾驶者提供更多的反应时间。而如果驾驶者打开转向灯,正常进行变线行驶,那么车道偏离预警系统不会做出任何提示。
BSD(Blind Spot Detection),盲区检测
盲点检测系统,通过车辆周围排布的防撞雷达、多普勒雷达、红外雷达等传感器、盲点探测器等设施。由计算机进行控制,在超车、倒车、换道、大雾、雨天等易发生危险的情况下随时以声、光(侧视镜上的小灯闪烁)形式向驾驶员提供汽车周围必要的信息,并可自动采取措施,有效防止事故发生。
DFMS(Driver Fatigue Monitor System),疲劳驾驶预警系统
利用感应器,捕捉驾驶员生理反应特征,对驾驶员进行疲劳预警。也有称DDW(Driver Drowsiness Warning),DMS(Driver Monitor System)。
APA(Automatic Parking Assistance),自动泊车系统
泊车辅助系统通过安装在车身上的摄像头,超声波传感器,以及红外传感器,探测停车位置,绘制停车地图。
LKA(Lane Keep Assistance),车道保持辅助
通过环境感知传感器识别本车相对于车道中央的位置,如果驾驶员无意间偏离车道,则应向驾驶员发出警告或通过自动转向干预使车辆重新回到车道内。
TSR(Traffic Sign Recognition),交通标志识别
在交通设施、地图、智慧城市等不够发达的阶段,交通标志的识别,也是作为摄像头传感器的亮点之一。它可以识别交通标志上的限速要求,驾驶员一旦超速立即给予提示。与此类似的RSR,Road Sign Recognition。
Note:
ADAS和目前的
L3
自动驾驶在车辆硬件(各种传感器,摄像头)的配备下是差不多的,但是它们在技术实现上是有明显区别:
- 辅助驾驶系统的实现更多是依赖于传感器(毫米波雷达、激光雷达、单\双目摄像头以及卫星导航)对环境的感知,通过测距,测速,采集图像等,其中用到的技术大多数是数据分析技术,少量用到深度学习的技术;
- 自动驾驶也是通过传感器获取车辆感知数据,接着利用深度学习技术(依赖计算机视觉技术)来完成3D场景构建,实现更全面的环境感知,实现自动驾驶。
但是令人诟病的一点是L3
级别的自动驾驶仍需要驾驶员操作,导致特斯拉,小鹏自动驾驶系统发生事故时,就有人出来发声说:“这不是自动驾驶系统,顶多是个辅助驾驶“,这就是L3
级别自动驾驶定义的模糊性的问题:在人工智能主导的自动驾驶过程中,驾驶员根本不知道哪个时候要接管车辆;
为了规避L3
级别的驾驶责任划分的模糊性,有些科技企业(例如baidu的Apollo平台),通过车联网技术,直接从L4
及以上级别的自动驾驶进行切入。
车联网(V2X)是通向无人驾驶高级阶段的核心技术。广义车联网包含车内、车际和车云网。
车联网有广义和狭义之分,狭义车联网单指“Telematics”(车载移动互联网,又称车云网)。这里定义车联网为广义车联网,即车内、车际、车云三网融合。广义的车联网是最终实现无人驾驶的重要一环,一方面,车际网联合产业链前端的ADAS实现车路协同;另一方面,车云网将数据上传至云平台进行清晰分析,开辟产业链后端广阔的汽车后服务市场。
1)车内网:是指通过应用CAN总线技术建立一个标准化的整车网络。
2)车际网(V2X):是指基于LTE-V / DSRC技术和IEEE 802.11系列无线局域网协议的动态网络。这是促进车际互联的最核心技术。(LTE-V是我国自研的V2X技术)
3)车云网(Telematics):又称车载移动互联网,是指车载终端通过3G/4G/5G等通信技术与互联网进行无线连接。
现阶段车联网的发展(车际网是核心技术)
车内网与车云网产业化应用成熟,车际网尚处培育阶段。以V2X芯片为核心产品的车际网,是推动车路协同,促进车际互联的关键,由于其技术壁垒最高,发展步伐最为缓慢。世界范围内的V2X产品均处开发阶段,未形成大规模生产,批量生产后可配套装载于智能汽车 和 道路信号灯、加油站等基础设施,市场前景广阔。
无人驾驶依照“ADAS装配实现车内智能 → LTE-V/DSRC技术实现车际互联 → 车际互联的发展进一步推动车内智能设备的研发 → 车内智能对车际互联要求的上升”的发展路径,呈现螺旋上升趋势。
超声波雷达
超声波雷达是通过超声波发射装置向外发出超声波,到通过接收器接收到发送过来超声波时的时间差来测算距离。目前,常用探头的工作频率有40kHz、48kHz和58kHz三种。一般来说,频率越高,灵敏度越高,但水平与垂直方向的探测角度就越小,故一般采用40kHz的探头。
毫米波雷达
毫米波雷达发射毫米波段的电磁波,利用障碍物反射波的时间差确定障碍物距离,利用反射波的频率偏移确定相对速度。毫米波雷达穿透雾、烟、灰尘的能力强,具有全天候(大雨天除外)全天时的优点。其缺点是无法识别物体颜色;视场角较小,需要多个雷达组合使用;行人的反射波较弱,难以识别。目前市场上主流的车载毫米波雷达频段为24GHz(用于短中距离雷达,15 ∼ 30m)和77GHz(用于长距离雷达,100 ∼ 200m)。
激光雷达(3D感知雷达)
车载激光雷达又称车载三维激光扫描仪,通过发射和接收返回的激光束,分析激光遇到目标后的折返时间,计算出目标与车的距离。通过这种方法,搜集目标表面大量的密集点的三维坐标、反射率等信息,能快速复建出目标的三维模型及各种图件数据,建立三维点云图,绘制出环境地图,以达到环境感知的目的。目前市场上比较常见的有8线、16线和32线激光雷达,还有少量64线产品。激光雷达线束越多,测量精度越高,安全性也越高,但是成本也越高。
和超身波雷达和毫米波雷达相比,激光雷达具有极高的距离分辨率、角分辨率和速度分辨率,且探测精度高、探测范围广;抗干扰能力强;能实时获取的信息量比较丰富,可直接获取目标的距离、角度、反射强度、速度等信息,从而生成目标多维度图像。但是激光雷达却很容易受天气的影响,比如在雨雪、大雾等天气条件下,其探测性能就会变的较差。
三种雷达的优缺点比较:现如今激光雷达技术还不成熟,存在成本高、工艺复杂、良率低,等问题,所以下面的各传感器性能的比较仅供参考。
在上面的论述中,更倾向认为"高级辅助驾驶系统 + 车联网 = 完全的自动驾驶",这么说在一定程度上是对的,符合国家给出的智能网联车发展规划中对自动驾驶的界定(2017.12.27 - 《国家车联网产业标准体系建设指南(智能网联汽车)》):
智能网联汽车是指搭载先进的车载传感器、控制器、执行器等装置,并融合现代通信与网络技术,实现车与 X(人、车、路、云端等)智能信息交换、共享,具备复杂环境感知、智能决策、协同控制等功能,可实现“安全、高效、舒适、节能”行驶,并最终可实现替代人来操作的新一代汽车。
政府认为智能网联汽车才是实现真正无人驾驶的标准,并且给出了智能网联汽车产品的物理结构图(感知层,网络层,平台层和应用层):
其中 ADAS/智能汽车 提供无人驾驶硬件层面的支持,而车联网(V2X)提供无人驾驶通信层面的支持。该部门规章方便企业建立智能网联车的标准立项,可以通过财政资金、研发项目等,支持相关标准研制、试验验证和贯彻实施。
自动驾驶商用车的主流应用场景包括矿区场景、港口场景、物流园区、机场场景、干线物流、末端物流。
现在各大自动驾驶主流玩家可以分为两类:以渐进式策略为主的主机厂(通用,一汽,吉利,比亚迪,小鹏等汽车零部件制造公司),以及跨越式策略的科技企业(百度的Robotaxi)。
从这里可以看出两类玩家均从自身公司的硬实力出发,去发展自己的优势产业:
一汽,福特等老牌汽车生产商从效率和驾驶员的行车安全出发,主打L2级别的辅助驾驶系统,并渐进式地推进L3, L4自动驾驶系统。
百度通过自研的Apollo开放平台,车辆既可以通过车载传感器感知开放世界,也可以通过约定的协议,接收智能道路电子设备发过来的信号,对更远的车况环境进行感知,这也使得Apollo自动驾驶系统能够达到L4级别。
在2022.7.21,百度第六代量产无人车Apollo RT6在2022百度世界大会上正式首发,整车配备38个车外传感器,包含8个激光雷达、6个毫米波雷达、12个超声波雷达、12个摄像头,芯片算力可达1200Tops,造价成本压缩在25万元。Apollo RT6将在2023年启动小批量生产,并投入到萝卜快跑试运营;2023年底,萝卜快跑将在30个城市部署至少3000辆自动驾驶汽车,形成覆盖300万用户的服务能力;2024年初,Apollo RT6将进行大规模量产,并面向C端市场。
以 25 万的成本价来计算,不需要司机的 RT6 每月成本仅为 4100 元,一旦投入到萝卜快跑平台上进行商业化运营,打车价格将比传统出租车、网约车的价格还会低。
事故1:2021.9.22 - 小鹏P7(毫米波雷达识别了动态障碍物,但是视觉识别不了)
2021年,有一位小鹏车主在高速上驾驶小鹏P7时,在开启NGP(自动导航辅助驾驶,L2级自动驾驶系统)的情况下追尾了前方板车。
P7全车搭载了31个传感器,还在全球率先使用了英伟达此前最先进的Xavier自动驾驶芯片。以这些硬件为支撑,小鹏NGP系统是全球量产车中少有的几款同时具备自动变道+自动导航辅助驾驶功能的产品,在业内属于比较领先的系统。
但为什么这样一套先进系统,却无法识别一台大卡车呢?
小鹏P7搭载了博世最先进的第五代毫米波雷达(周身总计5颗),并且内嵌了博世的碰撞预警和AEB算法。这套AEB系统仅基于博世的毫米波雷达进行目标感知,并对潜在的碰撞风险做出预警和制动动作。博世会给AEB系统同样设定一个工作条件,比如前车的速度如果超过一定的数值,就不会进行制动而仅仅是给出提示,这也解释了AEB没有紧急制动的原因。
那么为什么会撞上呢?主要是卡车的尾部是一个低矮的平板,完全遮挡了轮子,属于异形车,视觉系统检测不到。但此时L2雷达应该能探测到前方有动态障碍物,为什么还是会撞上,有些懂行的人士分析得出的结论:国内目前量产的L2自动驾驶系统有不少都将视觉作为主传感器(权重高),雷达当作辅助传感器(权重低),如果视觉发现障碍物,不管雷达有没有发现,车辆都会做出反应,但反过来就不行。
事故2:2021.8.24 - 蔚来ES8(视觉识别不了,毫米波雷达能识别静态障碍物,但是算法在处理时滤除了静态信号,导致失效)
蔚来的辅助驾驶系统NOP也出现过事故问题,蔚来ES8在高速公路上因为没有识别到前面的缓行的工程车导致相撞。
主要原因是当时撞上的工程车处于缓行状态,因为毫米波雷达的物理特性,对静止物体和缓行物体的检测比较困难,再加上博世等雷达厂商的雷达算法会过滤掉一些静态目标(因为无法准确区分是车辆还是护栏),所以蔚来的NOP事故中,相当于是两个传感器都失效了。
事故3:2021.6.1 ~ 2022.5.15 - 特斯拉(视觉识别失效,幽灵刹车)
美国国家公路交通安全管理局发布了一份报告,统计了2021年6月1日到2022年5月15日止,发生的部分自动驾驶系统意外事故,一共有392起涉及L2先进驾驶辅助系统(ADAS)的事故,6人丧生,5人重伤。特斯拉的Autopilot占了273起,Waymo(谷歌)有62起,Transdev(法国交通集团)34起,Cruise(通用)23起。特斯拉涉及5起死亡事故,福特1起,重伤事故特斯拉3起,本田和福特各1起。但是从事故率来看,特斯拉事故率不到0.02%,而谷歌的Waymo达10%,通用Cruise达0.07%,而现阶段驾驶员依靠人眼视觉进行道路感知的人力驾驶的事故率是0.018%。
据美联社和路透社等外媒报道,美国国家公路交通安全管理局(NHTSA)发布了一份监管文件。该文件显示,自2022年2月以来,消费者对于特斯拉“幽灵刹车”的投诉量已经增长了2倍多,从今年2月份的354起增长至目前的758起。
“幽灵刹车”指的就是当驾驶员开启特斯拉Autopilot或者使用FSD等自动辅助驾驶功能后,在车辆前方没有障碍物或者不会与前方车辆发生碰撞时,特斯拉车辆却会进行非必要的刹车,以至于会给驾驶员带来重大的风险。
摄像头可以捕获丰富的场景信息,毫米波雷达、超声波雷达则只能在可视范围内提供障碍物的2D距离信息,激光雷达则能提供3D点坐标,构建3D点云图。雷达感知用到的是信号处理/滤波的技术,而纯视觉利用的是基于计算机视觉的目标检测技术。当我们探讨两者的平衡点时,一定程度反映这两种技术并不都能让人满意,要不然两种技术都可以使用。
实际情况下,视觉和雷达感知结果会发生冲突,因此现阶段对于特斯拉、Mobileye、小鹏、蔚来等车企,他们选用视觉作为主传感器(在决策时,视觉权重大,传感器的权重小),以便在两者发生冲突时决定相信谁的识别结果,进而使用哪种策略。
可以发现,识别和决策并不是端到端的过程,这就会存在问题:
现阶段车路协同基础设施还在初步建设中,按照国家颁布的部门规章,没有接入车联网(车内网,车云网,车际网)的智能汽车(特斯拉,小鹏等)都无法实现真正的自动驾驶(L4);自动驾驶只是这些公司的过分营销手段,其实他们实现的是L3级别的自动驾驶,但该级别对驾驶员的责任划分比较模糊,如果驾驶员理解不到位,容易出现交通事故,所以有些车企为了保守起见(比如蔚来),虽然装配着L3算法却一直强调汽车是处在L2阶段,强调驾驶员不能脱手;只有Tesla比较激进,把自己开发的自动驾驶系统命名为FSD-beta(Full Self-Driving 完全自动驾驶)。
因此为了安全起见,高级辅助驾驶 和 L3自动驾驶 都应叫做辅助驾驶系统。
控制类的辅助驾驶装置可以解放驾驶员的双脚,但是在实际驾驶中并不完全可靠,因此高级辅助驾驶系统究竟如何使用:
下图中Tesla的FSD-beta系统在识别到电车下,毅然决然选择左转,还好驾驶员比较保守,及时接管了方向盘,调整了车的方向。
对于车辆的视觉感知,如果物体识别置信度小于系统预设好的阈值,则判断识别失效
对于卫星定位系统的有效性判断,宇通客车提出相应的解决方案:
参考【专利】检测自动驾驶系统是否失效的方法和装置 - 专利申请号:202010476010.8
假设基于单个车辆传感器信息的自动驾驶系统(局部视角)为V
,该自动驾驶系统装载在智能汽车上,在本专利中是作为待检测的自动驾驶系统;而基于多个车辆传感器信息的云端自动驾驶系统(全局视角)为C
,在本专利中是作为基准自动驾驶系统,目的是通过特定场景下的多个车辆信息得到可靠的轨迹预测,并检验V
预测轨迹的有效性。
这里先对专利中指定数据进行必要说明:
V
,根据第一数据,预测得到轨迹信息;整体实现流程:
在一些示例中,获取到真实车辆的传感器数据之后,可以根据这些传感器数据构建得到虚拟的驾驶场景,例如构建得到该虚拟驾驶场景的地图数据,并在该虚拟驾驶场景中生成一个或多个影子车。其中,每个影子车可以放在虚拟驾驶场景范围内的任意位置,例如可以放在与真实车辆相对应的位置上,并将虚拟车的相关数据与该虚拟车对应的实车的相关数据同步。该相关数据可以包括速度、加速度、位置、转向角等等。
可以理解的是,影子车的相关数据也可以全部或部分虚拟生成的,即不是通过与实车同步得到的。
虚拟车运行网络系统中可以并行运行多个影子车,并且可以根据获取的传感器数据和地图数据选择添加或者删减影子车,以及选择添加或删减的影子车的位置或者其他特性。
本申请的虚拟车运行网络系统构建的虚拟驾驶场景的一个示例如图6所示。其中白色车辆表示该虚拟驾驶场景对应的真实场景中的实车;带斜线的车辆表示虚拟车。
其中,1号车为第一类影子车,即没有决策预测能力,且行驶行为与对应的真实车辆的行驶行为完全一致;2号车为第二类影子车,即有决策预测能力,但行驶行为与对应的真实车辆的行驶行为完全一致;3号车和4号车为第三类影子车,即既有决策预测能力,且行驶行为由自己的自动驾驶系统输出的轨迹信息决定。
模型701可以是自动驾驶系统,相应地,训练数据中可以
例如该传感器数据和轨迹信息可以是从使用图4所示的方法构建的虚拟车运行网络系统中采集的;执行设备向客户设备反馈的可以是自动驾驶系统预测的轨迹信息。
该专利给出的一种训练方式
该方法中,针对获取的训练数据中的轨迹信息,进行聚类处理。例如,可以使用K均值聚类算法、层次聚类算法、基于密度的聚类算法、高斯混合模型聚类算法或者均值漂移聚类算法中的任意一种对训练数据中的轨迹信息进行聚类处理,得到多类轨迹,以及得到每类轨迹的中心轨迹和概率分布。
聚类得到的轨迹类的一种示例图如下所示:
在四个车道上总共有编号从1至8的八辆车,该八辆车上的传感设备分别采集数据,并且可以将该八辆车上的传感设备分别采集的数据组合在一起,从而可以得到该驾驶场景中更宽视角的道路信息。例如,在图8所示的驾驶场景下,对车辆8在该驾驶场景下的四条轨迹进行聚类,可以得到两类轨迹,其中,长虚线表示第一类轨迹,短虚线表示第二类轨迹。
得到聚类结果之后,可以获取训练数据中每个轨迹信息所属的轨迹类的中心轨迹和概率分布,并将该中心轨迹和概率分布作为该轨迹信息对应的传感器数据的标签数据(即通过数据预处理,把类似的轨迹信息用该轨迹类的中心轨迹来表示,即贴标签)。
在训练过程中,可以将训练数据中每个传感器数据输入待训练的自动驾驶系统,自动驾驶系统预测得到轨迹信息之后,将该预测轨迹信息与各个轨迹类的中心轨迹信息相比较,计算预测轨迹信息与各个中心轨迹信息之间的距离,并根据该距离判断该预测轨迹信息属于各个轨迹类的概率,从而根据判断结构,训练自动驾驶系统。
训练后的自动驾驶系统基于传感器数据,可以输出传感器数据对应的轨迹信息为各个中心轨迹信息的概率(即预测的轨迹信息属于哪一类轨迹的置信度得分)。
结束条件设置为轨迹信息预测的准确度为98%时,说明该自动驾驶系统是可靠的,可以停止训练。
模型701可以是自动驾驶系统的错误定位系统,相应地,训练数据可以包括
其中,该传感器数据和轨迹信息可以是从使用图4所示的方法构建的虚拟车运行网络系统中采集的,变换数据是基于该模拟的失效原因从该传感器数据变换得到的数据。执行设备向客户设备反馈的是自动驾驶系统的失效原因。
该专利给出的一种训练方式
下面介绍本申请训练自动驾驶系统的错误定位系统的一种示例性方法。
训练错误定位系统时,首先获取训练集
获取到训练集后,可以使用该训练集对错误定位系统进行训练,直到结束条件得到满足,例如训练次数达到最大次数,训练时长达到最大时长,等等。
下面这些法规涉及智能网联汽车的构建和管理:
2017.12.27 - 《国家车联网产业标准体系建设指南(智能网联汽车)》
2018.12.25 - 《车联网(智能网联汽车)产业发展行动计划》
高级辅助驾驶的安全性问题成为社会关注的焦点,老百姓对自动驾驶安全的顾虑也给这个行业发展泼了冷水,而国家通过制定安全法规,部门规章强行给自动驾驶行业续上一命。
2022.8.1 - 《深圳经济特区智能网联汽车管理条例》
这个法规给出了如下几个方面的管理细则:
- 道路测试和示范应用
- 准入和登记
- 使用管理
- 车路协同基础设施
- 网络安全和数据保护
- 交通违法和事故处理
- 法律责任
需要安全员接管的驾驶系统都是半自动驾驶系统,如果未来的智能网联车能够真正实现自动驾驶,则就不存在半自动驾驶系统。
半自动驾驶系统存在自动驾驶和手动驾驶的控制分权问题,按控制类型划分成共享型和切换型:
共享型的意思是指同一时刻自动驾驶系统和驾驶员同时享有汽车的控制权,按权重分配的类型来划分,分为串联式共享型和并联式共享型:
Note:
目的是研究在某个识别状态下(识别前车有障碍物,驾驶员处于分神状态,),究竟要采用哪种策略可以提高驾驶员的驾驶舒适性和安全性。
对于 Reinforcement Learning approach for decision-making in driver control shifting for semi-autonomous driving | TU Delft Repositories 一文中
状态空间包括五个状态:
Note:共享型模式体现在驾驶员状态和车辆状态可以同时存在;在上下文状态中,驾驶员可以做非驾驶的活动,也可以做驾驶的活动。论文中未给出这3种状态存在的约束。
系统的动作空间包括:无需更换行动(DN),拒绝切换(RA),在驾驶员处于注意力不集中时建议转移至最佳自动化级别(SSL),在驾驶员处于疲劳时强制转换到最佳自动化级别(SL),提示驾驶员保持清醒状态(PD)。
接着通过专家设计好的奖励函数,使用强化学习方法来求解多状态空间下动作的选择;作者在实验部分对模型做出的决策进行驾驶员安全性,舒适性的评估,这种安全性是起到事后预防的作用,即在识别的各种状态下,通过系统建议和驾驶员应答的方式,为驾驶员提供智能,安全和舒适的驾驶环境,而不是通过自动驾驶算法直接实现事前干预。
换句话说,该方案只能理论上通过优化人机交互的时机,提高驾驶员的驾驶舒适度,但无法解决“识别错误,决策错误;识别失效,决策失效“的问题。
参考 OESDs in an on‑road study of semi‑automated vehicle to human driver handovers
还有另一种研究方法是通过构建时序图,比对驾驶员的正常操作行为和时序图中的活动序列是否匹配,通过命中率分析时序图的有效性。
人机交互思路:
假设在搭载着自动驾驶系统的车辆中,内设基本包括:状态喇叭,仪表盘,LEDs信号灯,挡风玻璃上方投影的显示屏,中央显示屏,桌椅触觉装置。
车辆内部环境:
挡风玻璃上方投影的显示屏:
仪表盘:
OESDs在设计时,包括环境,驾驶员,车辆,音频交互接口,仪表盘,挡风玻璃上方显示屏,中央显示屏,触觉装置多个对象(或子系统)。
图1: 当自动驾驶有效时,车辆处于手动驾驶模式的时序图(LEDs灯为橙色)
环境对象提供GPS导航数据和传感器数据给车辆,车辆生成界面数据,在仪表盘,车辆上方显示屏,中央控制台上显示,车辆状态用LEDs指示灯显示。
此时驾驶员收到车辆状态信息之后,可以继续执行驾驶操作;与此同时,车辆监控传感器的状态,检查该路段是否支持自动驾驶,
在仪表盘,车辆上方显示屏,中央控制台上还会显示“按下绿色按钮可以切换到自动驾驶模式”,并等待用户做出反应。
驾驶员收到自动驾驶切换请求后,会决定是否开启自动驾驶模式。
手动驾驶模式下,驾驶员可以根据系统是否有效,决定是否要开启自动驾驶模式。
图2:车辆由手动驾驶模式切换到自动驾驶模式(LEDs灯为蓝色)
Note:自动驾驶模式开启,自动驾驶系统在不脱离的情况下持续工作着。
图3:车辆在自动驾驶模式下准备切换至手动驾驶模式(LEDs灯为蓝色)
图4:车辆从自动驾驶模式下切换到手动驾驶模式(LEDs灯为蓝色)
车辆系统会生成控制转换信息,并语音提示"此时可切换至手动驾驶模式",在仪表盘,车辆上方显示屏,中央控制台上显示该信息。
驾驶员收到“切换”提示时,会查看可视化面板上是否有提示信息
Note:在点击按钮时需要确定你现在所处的状态,比如你未答题时,手动点击按钮是没有激活的。
图5:车辆切回手动驾驶模式(LEDs灯为橙色)
Note:
评估人工设计的OESDs时序图是否符合驾驶员的直观理解,是否可以提高驾驶舒适度
对OESDs时序图有效性进行评估,主要是通过计算OESDs的路径以及实际情况下驾驶员的操作顺序,计算假阳性(FP,FA),假阴性(FN,Miss),真阳性(TP,Hit),真阴性(TN,CR),验证OESDs设计的流程图是否符合人的直观理解和驾驶体验。
通过如下指标来验证:
Hit Rate:Hits ∕ (Hits + Misses),即真阳率:TP / (TP + FN)越高越好
False Alarm Rate = False Alarms ∕ (False Alarms + Correction Rejections),即假阳率:FP / (FP + TN)(越低越好)
先绘制混淆矩阵,接着使用Kappa系数进行一致性校验,计算的Kappa系数为 0.781 ∈ [ 0.61 0.80 ] 0.781 \in [0.61~0.80] 0.781∈[0.61 0.80],OESDs和观测到的驾驶员正常驾驶活动具有高度一致性。 kappa系数
使用马修斯相关系数评估 观测行为 和OESDs 的相关性。
实验结果表明:
对于第22个受试者,相关性较差,主要原因是该受试者直接手动控制车辆,切断了驾驶模式从自动驾驶到手动驾驶的切换,没有完成相应的问答操作。但总体上,马修斯相关系数均>0.8(除了第2/22个受试者操作不当),即OESDs设计的流程图符合驾驶员的直观理解,可以带给驾驶员舒适感和安全感。
Note:
在半自动驾驶系统决策过程的优化中,我更看好专家设计好的时序图,因为它的设计思路是“自动驾驶系统有效时,提示可以切换;在自动驾驶系统失效时,通过回答问题来提高驾驶员注意力,问题回答完毕之后,即可提示手动切换”;
而强化学习作为一种策略选择的手段,有研究者们发现基于深度强化学习的半自动驾驶决策过程优化,低于决策树模型(参考 Optimizing driving entity switching of semi-automated vehicles under automation degradation);在自动驾驶系统中,使用强化学习进行车辆轨迹预测,在安全性的提高上高于使用强化学习对人机交互活动的预测。因此对于人机交互活动的流程设计,专家设计好的时序图比强化学习给出的策略更好。