欢迎来到本课程的第三周。 本周, 我们将深入探讨基础知识关于将安全性融入自动驾驶汽车设计的。本单元中,我们将讨论最近的一些自动驾驶车的碰撞报告,然后我们会正式定义自动驾驶车的安全概念, 并讨论最常见的危险源。 我们将讨论一些行业对安全性的看法,最后, 我们将通过讨论安全系统设计中使用的一些常见框架来总结。
在本课中, 我们将讨论 2017年和2018年首次发生的自动驾驶车碰撞事件。 然后,我们将定义一些基本的安全概念并 列出一些自动驾驶车危险的最常见原因, 并讨论低水平和高水平的安全要求。 应该指出,本单元中的材料 大多取公布的指南, 由国际标准组织ISO发布的。 您可以在网上找到这些框架的更全面版本。
让我们首先讨论一些迄今为止更为突出的自动驾驶汽车故障。2016年3月,一辆自动驾驶的谷歌车Waymo,撞上了一辆公共汽车的一侧, 当它试图从后面的障碍物中撤出时。一辆公共汽车正从后面驶来, 目的是将谷歌车停在车道上,这是在其车道的右侧准备转弯。谷歌汽车软件认为, 这辆公交车不会试图通过它, 因为它与下一车道的汽车之间的差距太窄。 事实证明, 公交车经常会在较小的缝隙中行驶 比谷歌预期小的缝隙,这也导致了这次的碰撞。当谷歌汽车可能会对公交车位置的新测量做出反应时,但为时已晚。这只是一个例子, 说明它是多么困难在事情发生之前预测所有其他车辆行动。
一年后,一辆优步自动驾驶车在另一辆车造成轻微碰撞时反应过度,最终翻车。 由于车辆的动态模型不承担来自其他车辆的显着干扰力, 因此控制器可能没有针对这种情况进行测试并且反应过度。 此次碰撞突显了集成 到控制系统中的稳健性以及涵盖尽可能多的可预见事件的探索性测试的需求。
2017年底,一辆GMCruise雪佛兰Bolt撞倒了一名摩托车手,在中止车道变换后。 在Bolt启动机动之后, 它希望进入进去的间隙迅速关闭, 由于相邻车道中的制动引导车辆。那个正打算变道的摩托车手,在Bolt旁边向前移动,并阻挡了回程机动。Bolt 陷入了进退两难的境地;与摩托车相撞或撞上两辆车在相邻的车道上。目前尚不清楚在这里作出具体决定选择一个或另一个结果,诉讼也掩盖了案件的细节。然而,由于其他agent也会预测自动驾驶车的动作,因此在许多情况下评估正确的行动是非常具有挑战性的。在可能的情况下,并道可能是一种更激进的驾驶风格或者稍有延迟的中指可能就有足够时间来避免撞击到摩托车手。这种紧密的决策互动仍然是自动驾驶车的一大挑战。
最后, 我们应该谈谈 Uber 事故, 那场2018年初导致行人死亡的事故。 在亚利桑那州坦佩市, 优步当时有一个广泛的测试计划, 与安全司机在监控着自动软件。 事故发生在一条宽阔的多车道分道路上, 当晚一名行人在一个没有标记的地区骑自行车穿过马路。 受害者Elaine Herzberg 是一名来自坦佩的49岁女子。
这是从鸟瞰图描绘的汽车和场景。 可以看到从图像左侧进入的行人 和从图像底部沿着道路行驶的车辆。 初步调查显示, 是由于多个失灵导致这次的事故。
让我们来看看促成的不同的因素。首先,安全司机没有实时进行查看。那个时候,安驶员不专心,据称当时正在观看Hulu。 安全员在车上可能什么都可以做,优步在车辆上没有任何方法来评估安全员的注意力。因为观看自动驾驶系统操作是一项难以集中精力的任务,所以拥有安全驾驶员监控系统非常重要。 其次, 软件检测系统存在明显的混乱。在最初检测到6秒撞击时,受害者首先被识别为未知物体,然后被误识别为车辆,然后被误识别为自行车。最后,无人驾驶软件做出的决定是忽略检测,可能是因为认为检测太不可靠。感知并不完美, 切换分类不应当导致车辆完全忽略这样的物体。最后,在发生碰撞前1.3秒, 沃尔沃紧急制动系统确实可以检测到行人,并且会迅速施加制动以降低撞击速度,从而可能挽救Elaine Herzberg的生命。然而, 那是不安全的, 在测试期间让多个防撞系统同时运行。因此优步在无人驾驶模式下禁用了沃尔沃系统。最终,自动驾驶车没有对行人的路径作出反应,并且疏忽的安全员无法快速反应以避免撞击。 这次事故由以下组成: 感知系统无法正确识别行人,用自行车和规划系统来避免侦探物体, 即便类别是不确定的, 这样导致了这次失败,同时,缺乏人或紧急制动备用最终导致了死亡。
我们可以从这一系列事件中看到 自动驾驶系统的各个方面: 感知、规划和控制都可能导致系统失败和撞击,而且多个系统或多个决策的交互往往会导致意外后果。事实上, 无人驾驶系统还有很多可能失败的方式。 很明显, 我们需要严格和详尽的安全方法, 行业和监管机构正在正面应对安全挑战。 好。现在, 我们对安全评估的挑战有了认识,让我们正式定义一些基本的安全术语。
我们将使用术语,
“Harm”定义对生物的物理伤害,
"Risk" 一词来描述事件发生的概率, 以及事件的严重程度, 可能造成的伤害。
我们现在可以将安全描述为避免对生物造成伤害的不合理风险的过程。例如, 当交通信号灯为红色时驶入交叉路口将是不安全的,因为这会导致不合理的风险, 对车辆和通过交叉路口的其他车辆。最后, 危险是潜在根源,不合理的伤害风险或安全威胁的。因此,如果我的系统软件有可能导致事故的错误,那么软件错误将是一个危险。
现在,您认为自动车辆危害最常见的来源是什么?危险可能是机械的,因此制动系统的错误组装可能导致过早失效。危险可以是电气的,因此有缺陷的内部布线会导致指示灯不亮。危险也可能是计算用于自动驾驶的硬件芯片的失败。如前所述,它们可能是由于无人驾驶软件错误和bug造成的。 危险也可以由传感器数据不良或嘈杂或感知不准确引起的。 危险也会发生,由于不正确的规划和决策,无意中选择危险操作也可能导致危险,因为特定场景的行为选择设计不正确。也有可能是对安全员支援, 提供足够的警告以恢复其责任,或者自动驾驶车可能被某些恶意实体攻击。 这些都是主要类别的危害, 这些危害都是经常考虑:机械、电气、计算硬件、软件、感知、规划、驾驶任务支援和网络安全。
在评估整体系统安全性时,每种危险都需要不同的方法。我们将在后续视频中详细介绍如何处理这些类别。 既然我们知道安全所涉及的基本术语,那么让我们考虑以下问题。我们如何确保我们的自动驾驶车真正安全呢?也就是说,我们如何处理复杂的驾驶任务和可能发生的许多危险,并为完整的自动驾驶系统定义安全评估框架?在美国,国家公路运输安全管理局或国家公路交通安全管理局已经制定了一个由十二部分组成的安全框架,用于构建自动驾驶的安全评估。正如我们将在本单元的下一个视频中看到的那样,该框架只是一个起点,不同的方法,通过结合多种现有的放你发和标准方法已经在行业中已经出现了。让我们首先讨论NHTSA的安全建议。这个框架是作为建议发布的, 而非强制性的。框架在2017年发布。 框架本身由12个领域或 或要素组成,任何自动驾驶公司应该关注或者更确切地说, 鼓励关注。
首先, 应采用安全的系统设计方法, 这实际上渗透到了整个框架文件中。精心策划和控制的软件开发过程至关重要,以及现有的 SAE 和 ISO 标准在汽车、 航空航天和其他相关行业应在相关情况下适用。 对于剩余的11个领域, 我们可以将它们大致分成两类。 自治设计,这需要某些组件 被包括在自治软件堆栈中并加以考虑, 测试和缓解碰撞, 其中包括测试自治功能和减少故障负面影响的方法, 以及从中学习。
在自治设计类别中,我们看到了一些我们已经熟悉的组件。 NHTSA鼓励明确定义的ODD(设计适用范围), 让设计人员清楚地认识到这个系统的缺陷和局限性, 并且可以评估哪些方案是支持的并且是安全的,在测试或部署之前。 接下来,它激励经过充分测试的物体和事件检测和响应系统, 这对于感知和避免碰撞至关重要。 然后,它激励汽车具有 可靠和方便的后退机制, 通过该机制警告驾驶员或使汽车自动安全。 开发这种机制至关重要, 记住驾驶员可能会疏忽。 因此,应该考虑如何将系统置于最小风险状态,如果发生这种情况。 还应该设计驱动系统,以便所有联邦级别,州级别和当地交通法规能够在ODD内遵循和遵守。 接下来,该框架鼓励设计人员考虑网络安全威胁, 以及如何保护驱动系统免受恶意代理的攻击。最后,应该对人机界面(HMI)进行一些思考。 因此,汽车应该能够传达机器的状态在任何时间点,对乘客或驾驶员进行。可以显示的状态信息的重要示例是所有传感器是否可操作,当前运动规划是什么,环境中的哪些对象正在影响我们的驾驶行为等等。
我们现在转向测试和碰撞缓冲区。 首先,NHTSA建议在为公众开展任何服务之前需要进行强有力的广泛测试计划。这种测试可以依赖三个共同的支柱:仿真模拟,近距离测试以及公共道路驾驶。接下来,应该仔细考虑减轻碰撞事件中发生的伤害或损坏程度的方法。碰撞仍然是公共道路驾驶和无人驾驶的考虑,最大限度地减少碰撞能量,要超过乘客安全标准,安全气囊和碰撞价值应该是正常的。接下来,应该支持碰撞后的行为。例如,汽车必须迅速恢复到安全状态,停止燃油泵燃油。发出警报等等。此外,应该有自动数据记录功能或黑匣子记录器。这些碰撞数据的分析和设计系统是有助于将来避免发生特定类型的碰撞,并解决出错的问题,以及在事件发生时出错的地方。 最后,应该有明确地对消费者进行教育和培训。因此,在为消费者驾驶员和乘客进行测试和培训期间,驾驶员的课程可以更好地理解部署的无人驾驶系统的功能和限制。最后一步对于确保我们对自动化的自然过度自信至关重要,这不会导致早期采用者引入不必要的危害。
请记住,这些是任何公司应该处理的建议区域。尚未强制要求。 NHTSA的主要目标是指导公司 在不过度限制创新的情况下制造自动驾驶汽车。 人们预先选择技术。 随着市场的进入开始出现,可能会出现更加明确的安全评估要求。 这条线的斜率 这个导数是这条线的斜率 让我们总结一下在这段视频中,我们讨论了无人驾驶行业首次发生的一些事故,并揭示了自动化软件失败的多种方式。然后,我们正式定义了危害,风险,伤害 和安全,并列出了自动驾驶车辆危险的主要来源。然后,我们看了NHTSA安全框架。
Check out Dr. Krzysztof Czarnecki'spaper on WISE Drive: Requirements Analysis Framework for Automated Driving Systems. You will watch an interview with Dr. Czarnecki's later in this Module.
Learn more about the non-mandatory safety guidelines for autonomous cars in the NHTSA - Automated Driving Systems: A Vision for Safety 2.0 report.
让我们讨论一下 Waymo 的测试程序以下专门评估其软件,因为它是最公开可见和有据可查的程序。首先,他们测试所有软件更改每天模拟 1000 万英里的模拟量。这代表了持续运行的巨大计算工作量确认对系统安全要求的预期改进。为此,他们挖掘了所有在路上的经验来挑战场景并执行系统的场景模糊测试,这会改变位置和其他车辆和行人的速度参数随机,因此他们可以测试自我车辆是否在所有车辆中安全运行。这种方法对于寻找困难的边缘情况特别有用,例如,难以解决合并或交叉路口的时间间隔。
然后他们进行封闭式测试,他们在私人轨道上测试他们的软件。它们涵盖了加州大学伯克利分校研究确定的 28 个核心场景,以及 Waymo 添加的 19 个附加场景。这些场景是围绕避免追尾四种最常见的事故场景,交叉路口、道路偏离和车道变更。这些类别中的每一个显然都有很多变体,但它们加起来占所有事故的 84% 以上。
最后,他们进行真实世界的测试,这些测试是经常出现在美国许多不同城市的街道上,包括位于 Google 主校区附近的加利福尼亚山景城。该测试使他们能够识别越来越多的不寻常的案件主要依靠关于动态驾驶任务回退策略让人类在测试期间监控自治软件。这些测试策略的组合绝非 Waymo 独有,但已成为事实上的标准,因为它提供固定投资的最大灵活性和反馈,将每种测试方法集中在它最擅长的方面,模拟操纵使它们变得困难的场景,封闭课程测试确认具体收益寻找更具挑战性的场景的安全性能和实际测试,并提高公众对该技术的信心。
好的。现在让我们把注意力转向通用汽车的安全理念,2016 年收购 Cruise Automation 并推动因此,它在自动驾驶开发方面处于领先地位。
GM 战略非常遵循 NHTSA 安全框架密切关注 12 个主要领域中的每一个。通用汽车的安全策略并没有试图重组或简化 NHTSA 指南,而是专注于其实现所需安全评估的实施策略。首先,通用汽车强调了他们的迭代设计模型,其中第一个分析场景,然后构建软件,然后模拟场景,并测试他们的软件。最后,将他们的软件部署在现实世界的汽车上,他们不断添加改进和改进需求和自治系统都是迭代的。
其次,Waymo 依靠 OEM 来设计它的车辆,只讨论与其自主硬件相关的机械和电气危险,通用汽车完全自己制造汽车,因此可以强制执行更集成的设计与整个自动驾驶硬件的质量标准一致。其次,通用汽车通过全面的风险管理方案确保安全。他们识别和解决风险并尝试完全消除它们,而不仅仅是减轻它们。最后,他们所有的系统都遵循内部明确定义的安全标准,可靠性、安全性等。他们在汽车行业拥有多年的车辆开发经验,并因此开发了广泛的安全流程。
让我们讨论一下可以采用的各种方法用于评估自动驾驶系统的安全性。我们有两种可能的方法:分析或数据驱动的安全评估。通过分析安全性评估,我们的意思是系统可以被分析来定义可量化的安全性能或基于对危险和情景的严格评估的故障率。如果可以通过分析确定整体系统故障率,它可以为哪些方面提供强有力的指导该系统是整体安全的最大贡献者。一个很好的例子是航天飞机计划,其初步估计分析失败率为 100,000 次飞行中的 1 次。然而节目结束后,一项法医研究表明,早期的航天飞机计划飞行的失败率接近十分之一,到节目结束时,这只会发展到百分之一。令人惊奇的是,这种分析甚至可以用于这样一个复杂的系统,考虑到所有进入航天飞机发射的数千个子系统,以及所有可能影响这些系统运行的数百万个变量。这种详细的分析也适用于自动驾驶汽车,但可能会更复杂,因为车辆的无限多种情况将自己局限在其中。最后,分析方法只能为自动驾驶系统的安全性能提供指导,他们的结果需要通过经验来验证。为了评估经验,我们使用数据驱动测试。这是我们确信的概念该系统是安全的,因为它已经证明,使用特定版本的软件,它可以在一组上达到预期的故障率包含在运营设计领域的道路和场景。在自驾的情况下,这些期望的故障率可以与人类水平的驾驶表现联系起来,我们希望将事故减少 10 倍或 100 倍于当今驾驶员的表现。
现在,让我们考虑初步的自动驾驶车辆统计数据,更具体地说,脱离率由在加利福尼亚测试的所有自动驾驶车辆发布。脱离是当这个自治软件请求驾驶员接管控制或安全驾驶员觉得有必要进行干预。获得真正的崩溃统计数据是可以理解的具有挑战性的整个车队都在接受测试,因为这些都是敏感的统计数据。幸运的是,加州的测试伴随着一些有用的报告要求。2017 年,Waymo 在加州行驶了 56.3 万公里,经历了 63 次脱离接触每 9,000 公里大约有一次脱离接触。GM Cruise 在加州行驶了 210,000 公里大约每 2,000 公里有 105 次脱离接触。两者都在全年迅速改善,达到每 12,500 公里一次的脱离接触率,每年最后三个月分别为每 8,300 公里。这些是很难与人类表现相关的数字,但大致意味着一个典型的通勤者只需要对于自治系统的失败,每年进行一次干预。这是巨大的进步,但距离人类每年在数万亿英里内实现的碰撞之间的距离为 400,000 公里。按频率顺序排列 63 次 Waymo 脱离的主要原因,是不需要的车辆操纵,感知差异,硬件问题,软件问题,行为预测,最后是一个鲁莽的道路使用者的案例。很明显,感知的核心任务,预测和行为规划仍然是具有挑战性的问题,还有很多工作要做。
正是出于这个原因,我们看到了如此多方面的安全方法,每家公司都在扩大车队增加在道路上使用自主系统获得的经验。总而言之,在这个视频中,我们研究了自动驾驶安全评估的两个行业观点,Waymo 和 GM,发现了很多借鉴其他行业的方法。我们讨论了当前的离职率和道路测试要求证明比人类表现更好。
Read more about how companies approach safety assurance and testing:
Waymo Safety Report
GM Safety Report, 2018
Ford Safety Report, 2018
Uber Safety Report, 2018
NHTSA Crash Statistics, 2015
Autonomoose: Towards All Weather Driving in Canada, Steven’s presentation, University of Toronto & University of Waterloo (June 15, 2018).
2018_06 Autonomoose Driving in Canada.pdf
PDF File
How Many Miles of Driving Would It Take to Demonstrate Autonomous Vehicle Reliability?; Rand Corporation Report, 2016
我们稍后会在视频中定义这些术语。让我们开始。我们将从故障树分析开始。故障树可以作为初步的分析框架,并且可以稳步扩展以包含尽可能多的必要细节。故障树是自上而下的流,我们在其中分析要避免的系统可能出现的故障,然后确定它可以使用的所有方法发生在系统较低级别的事件和故障中。故障树中的顶部节点是根或顶部事件。故障树中的中间节点是逻辑门,定义了根本事件的可能原因。分解继续到详细程度可以定义此类事件的概率。然后可以通过组合来分析故障树使用布尔逻辑定律的概率。评估总体概率根本原因事件和最有助于其发生的原因。让我们考虑一个简单的例子,并将车祸作为我们的根本事件。车祸的原因可能会被分解无论是软件故障还是硬件故障,在我们提供的许多其他可能性中在我们之前的视频中被描述为危险等级。非常粗略地说,硬件故障可能是因为例如,制造缺陷或材料缺陷。同样,软件错误可能是由感知代码故障或某些网络安全问题,比如说,如果我们被黑了。从那里,我们可以继续进行软件子系统和这些子系统中的特定计算在每个连续的分支处加深树。
最终,我们将得出我们可以达到的特定故障率分配每小时或每英里运行的发生概率。我们现在已经到达故障树的叶子节点。然后使用逻辑门结构,我们可以显式计算给出了对单个叶节点故障率的评估的总体故障率。用于向上传播这些概率的操作将与事件遵循集合论时的概率规则相同。因此,例如,对于独立事件,OR 和 AND 概率将是子节点概率的总和或乘积。这是故障树背后的一般思想,被称为概率故障树,当概率包含在叶节点时。概率故障树是一种自上而下的安全方法已广泛应用于核工业和航空航天工业,并且可以类似地应用于自动驾驶。挑战在于建立一个综合树和错误地识别叶节点事件的概率。
以下是步骤。目标是构建所有可能的危险情况的表格,我们开始,首先与现场专家讨论在表中我们想要的详细程度识别流程。然后,我们质疑系统的目的并列出所有失败的可能性。那么对于每一个失败的可能性,我们确定可能的后果并分配每个后果的严重性等级在 1 到 10 之间,10 是最严重的。对于每个后果,我们确定可能的根本原因,对于每个路径原因,我们在 1 到 10 之间分配另一个数字,表示此原因发生的频率。然后,我们确定了操作员可以检测到故障模式的所有方式,维护、检查或故障检测系统。我们之前评估了整体模式检测的可能性它会产生效果并从 1-10 分配另一个分数,1个保证被检测到,10个不能被检测到。最后,我们计算一个称为风险优先级的最终数字,这是严重程度的产物,发生和检测。这个值越高,优先级越高。
这就是 FMEA 背后的一般框架。FMEA 是一种风险评估理念,由军事和航空航天工业,后来又带到了汽车工业。它提供了一种真正结构化的方法来量化风险并进行处理。先说最重要的。最后,经常出现的 FMEA 的一个常见变体,是危害和可操作性研究或 HAZOP。与 FMEA 相比,HAZOP 更像是一个定性过程,我们寻求定量地定义风险。因此,在 HAZOP 中,主要目的是有效地对可能出现的一系列危险进行集思广益。对于复杂的过程,可以评估风险无需为发生分配特定值,严重性和检测,这可能很难做到。HAZOP 通常在设计过程的早期用于指导概念设计阶段。HAZOP 中的关键补充是,引导词用于引导应用于每个系统要求的头脑风暴。这些引导词包括诸如不、更多、更少、早期、晚期并导致可能不考虑的故障模式。因此,可以将 HAZOP 视为一种简化的持续 FMEA 头脑风暴方法。
现在让我们关注更具体的安全类型并讨论用于汽车和低级自主功能开发的现有安全框架,这通常用于评估自动驾驶汽车的硬件和软件故障。特别是,让我们讨论功能安全方法在 ISO 26262 中描述和安全在 ISO 上延伸到的预期功能方法26262 并在 ISOPAR 21448.1 中定义。我们将无法详细介绍这两个过程,但如果您想了解更多信息,我已经包含了补充材料的链接。功能安全或 FUSA,是不存在不合理的风险由汽车硬件和软件故障引起的故障行为,或与其预期设计相关的意外行为。ISO 262 标准定义了功能安全术语和机动车辆内电气和电子系统的活动。因此,仅解决硬件和软件危害这可能会影响自动驾驶汽车的安全。该标准定义了四个汽车安全完整性等级或 ASIL。ASIL D 是最严格的,A 是最不严格的。每个级别都有与之相关的特定开发要求,必须遵守才能获得认证。
最后,让我们简要探讨一下预期功能标准或 SOTIF 的安全性,在 ISOPAS 21448 文档中正式定义。SOTIF 特别关注与相关的故障原因系统性能限制和可预见的系统误用。由于执行功能的性能限制或不足技术限制,例如传感器性能限制和噪声,或算法的限制,例如物体检测故障和执行器技术的局限性。硬件和软件故障通过以下方式解决ISO 26262 中的功能安全标准,不在 SOTIF 的范围内。SOTIF 还解决了由于用户可预见的误用而导致的不安全行为。比如用户混淆,用户超载和用户过度自信。当前的 SOTIF 标准针对自动化水平,零,一和二。它还指出,它的方法可以应用于第三级,四个和五个自治,但可能需要额外的措施。SOTIF 可以看作是功能安全流程的延伸,专为应对自动驾驶功能的挑战而设计。因此,它遵循非常相同的V型发展理念,但有增强的组件。SOTIF 还使用 HARA 来识别性能限制和误用引起的危险。然后执行类似的设计序列,单元测试和验证和确认,确认已满足安全要求。如果您想深入了解功能安全或 SOTIF 标准,请查看补充材料中的链接。
让我们总结一下我们在这个视频中学到的东西。我们首先讨论了通用安全框架。故障树分析作为一种自上而下的方法安全评估和故障模式和效果分析作为一种自下而上的安全方法。然后我们讨论了常用的功能安全的概念。软件和硬件风险评估和讨论了 SOTIF 作为功能安全的扩展,这说明了性能限制和误用。所有这些想法在行业中被大量使用,正如我们在 Waymo 和 GM 中看到的那样几乎所有这些技术都在他们的安全评估中。
恭喜。你已经完成了这个安全评估模块。让我们总结一下我们这周学到的东西。我们首先讨论了为什么安全很重要,特别是如何广泛的不同故障可能导致自动驾驶事故。然后我们正式定义安全概念并讨论NHTASA 对自动驾驶汽车的安全建议。然后我们讨论了 Waymo 和通用汽车如何看待自动驾驶安全。然后,我们描述了展示安全性的分析和数据驱动方法。最后,在今天的视频中,我们讨论了共同的安全评估框架。包括故障树、故障模式和影响分析,功能安全和预期功能的安全性。
希望本周能让你深入了解设计安全的自动驾驶系统并正确评估您构建的系统。在我们结束这周之前,我们将与滑铁卢大学的 Krzysztof Czarnecki 教授,自主安全评估专家。我有很多有趣的问题要问。敬请关注。
查看以下有关自动驾驶汽车安全框架的链接:
失效模式和影响分析 - asq.org
ISO 26262-1:2018 - 道路车辆的功能安全
ISO/PAS 21448 - 道路车辆预期功能的安全性
兰德公司关于安全驾驶的报告