两月三车祸,莫把特斯拉辅助驾驶当自动驾驶 | 焦点

特斯拉Autopilot虽然叫“自动驾驶”,但实质属于辅助驾驶,至多算是半自动驾驶。特斯拉官方却夸大了这套辅助驾驶系统的作用。


两月三车祸,莫把特斯拉辅助驾驶当自动驾驶 | 焦点_第1张图片

图1:7月9日事故现场,车前部撞毁


《财经》记者 沈忱/文


特斯拉最近霉运缠身。短短两个月,特斯拉车主遭遇3起车祸。继5月7日发生的殒命事故之后,7月1日一辆特斯拉Model X在美国宾夕法尼亚州Bedford公路出口附近,驶出路口时,突然撞上右侧道路护栏,然后弹到中央水泥隔离带,发生侧翻。7月9日晚00:30,在美国蒙大拿州(Montana)卡特尔地区(Cardwell)的怀特霍尔小镇附近(Whitehall),特斯拉Model X在一道急速下降的转弯处被撞毁。


讽刺的是,Elon Musk曾表示,Model X的碰撞等级可以达到 NHTSA 超五星的水平,而且由于电池组位于车辆底部,使得Model X的重心比同类SUV更低,可减少50%的侧翻风险。


NHTSA(美国高速公路安全管理局)和National Transportation Safety Board(全美交通安全委员会)对特斯拉的三起事故展开调查。初步的调查结果将在下月初公布。


Autopilot尚不成熟   

除了7月1日发生的事故,Elon Musk称Autopilot并未开启外,其他事故都是在车主开启Autopilot之后不多时发生的,是否因为Autopilot不成熟,导致了悲剧发生呢?


Autopilot被宣称为特斯拉的自动驾驶系统,就好像人的大脑,可以控制行车。


虽然叫做“自动驾驶”,但是实质属于辅助驾驶,至多算是半自动驾驶。Autopilot的应用是有条件的,只适用于有中央夹分道线的高速公路或低速行驶状态下,能实现的辅助驾驶功能很有限,可以自动地沿着有明确边界线的车道行驶,根据前后车辆的速度相应的加速和减速。驾驶员在这种情况下可以放开方向盘和油门、刹车,让车子的系统自己驾驶,但是仍然需要集中注意力,随时介入驾驶。


一旦车辆行驶在普通道路上,驾驶员必须双手放在方向盘上,掌控好车。


特斯拉官方却夸大了这套辅助驾驶系统的作用。早在2014年,Musk就信誓旦旦地说一年之内Autopilot就可以完全在高速公路上行驶,包括入口和出口。特斯拉中文官网上也把Autopilot叫做自动驾驶,这与Autopilot的实际作用并不符。


这几起事故的主要原因、被人诟病的特斯拉视觉感知部分,集成了MobileyeEyeQ3视觉系统、毫米波雷达、以及12个超声波传感器,类似于人的双眼,可以随时监测路况。


可见Autopilot使用的是视觉加雷达,还有短距离的超声波雷达,形成多传感器的融合。


专注无人驾驶系统研发的驭势科技联合创始人吴甘沙向《财经》记者表示,这证明了视觉加上雷达的组合还有一定缺憾,Mobileye的单目摄像头还不够,用更好的感知器件或许可以避免车祸,比如:多目摄像头或者激光雷达。而且在传感器不一致的情况下,各个传感器通常只能在各自识别完成后做融合,这时候的融合逻辑又变得非常困难,多传感器融合算法也要做的更好。


激光雷达就是安装在谷歌等公司的无人驾驶车车顶上那个的锥形设备,价格高达7万美元,也一直是无人车无法量产的原因之一。


如果高端传感器用不了,在配套的视觉算法上做提升也是可以的。特斯拉目前使用的是传统计算机视觉算法,如果使用深度学习的算法,感知能力会强很多,比如:在第一起致命事故中,摄像头没有识别出障碍物是一辆卡车,如果运用了深度学习算法,很有可能避免事故发生。


值得注意的是,特斯拉声称Autopilot还属于测试版,测试版的意思是指仅仅功能就绪了,可用性方面仍需要改进。德国交通部下属联邦机动车运输管理局(KBA)表示,早知道特斯拉将测试状态的Autopilot安装上车,KBA是绝对不会通过的。


奇点汽车联合创始人 CEO沈海寅告诉《财经》记者,特斯拉的Autopilot是新生事物,也需要一个不断进化的过程,包括:程序和算法不断优化。任何一家公司在数据融合和算法方面都不可能达到绝对安全。特斯拉和传统车企的做法不同,传统车企比如宝马、奔驰,要在测试达到一定安全系数之后才能发布。而特斯拉是通过在线的升级让系统更安全。


在这几起事故之后,Musk的表现更像一个强硬的极客,他仍表示不会关闭Autopilot功能。不过特斯拉将在近期升级这个处于测试阶段的Autopilot,增加了包括自动匝道驶出、交通感知巡航控制、新导航系统和多媒体控制的功能。


去年十月,特斯拉向Model S车主推送了beta版本Autopilot 7.0,激活了自动车道保持、自动变道和自动泊车等功能。由于很多用户使用Autopilot的时候,做出很多危险性行为,特斯拉又在今年初的时候推出了7.1版本,限制了车速等。有很多特斯拉车主对于限制功能表示不满。


辅助驾驶用在了不适合的路况   

两月三车祸,莫把特斯拉辅助驾驶当自动驾驶 | 焦点_第2张图片
图2:高速公路55的谷歌街景,可见出事路段车道线标识不清晰,而且没有路肩,即车行道外缘至路基部分


回到最近的这起车祸。特斯拉车主从公路I-90拐弯,行驶到双向高速公路55上,车突然转向,控制不住,撞上路边的一排木护栏。


根据行车记录仪,在Autosteer功能被启用后的两分多钟内,未探查到有外力介入。也就是说,特斯拉已经提示车主需双手放置于方向盘上,但他没有照做。


Autosteer是特斯拉Autopilot自动驾驶系统的其中一个功能,叫做自动巡航。特斯拉的说明是,自动巡航主要用于有车道线的高速公路和低速行驶的状态下,Autosteer会让车在固定的车道上,并且通过传感器和运算的配合,自动地行驶。


而当时车主是在公路一处急速下降的拐弯口开启了Autosteer,同时车速已达到每小时60英里,该区域限速每小时55英里之内。


车主有责,但特斯拉也难辞其咎。吴甘沙表示,这起事故的主要原因在于把特斯拉的辅助驾驶用在了不适用的路况,比如:双向道路、拐弯处、主路出入口或闸道、十字路口等,这超出了Autopilot的处理能力。尤其是在夜间模式下,晚上摄像头看不清楚,偏离后摄像头和毫米波雷达也检测不到木头护栏。


同时,出事现场是一段下降的弯路,特斯拉没办法在弯路或者下坡路使用Autopilot的原因是,Autopilot没有高精度地图的支持,地图可以告知车道数目、坡度和曲率,如果没有精准的坡度信息,而且出事路段也没有路肩,即使是在白天也很容易出问题。


吴强调,在夜间摄像头不灵敏的情况下,就应该关闭Autopilot。但对于特斯拉来说,休克式关闭可能非常危险,所以,必须用声、光、电、震动、减速等方式持续警告驾驶员。


延伸阅读:

吴甘沙:什么是真正的无人驾驶


无人驾驶的第一步是辅助驾驶或半自动驾驶,特斯拉的autopilot即是此类;第二步是高度自动驾驶,在大街小巷多数场景下可以自动驾驶,还能支持多辆车的编队行驶;最后是全自动驾驶或无人驾驶,完全由人工智能来驾驶,可以把方向盘、油门和刹车拿掉。在无人驾驶上谷歌是个中翘楚,技术遥遥领先。


两月三车祸,莫把特斯拉辅助驾驶当自动驾驶 | 焦点_第3张图片


吴甘沙/文


自动驾驶是个笼统的概念,往往各种混杂说法见诸报章。在搜索引擎上,你会看到诸如“长安汽车完成长距离无人驾驶首试”、“特斯拉无人驾驶出事!还敢放心交给它吗?”、“乐视无人驾驶超级汽车亮相”这样的报道,显然混淆了概念。


我们在这里一一正本清源。首先一个大概念是智能驾驶,在驾驶的智能方面有驾驶辅助(driving assistance)和自动驾驶。驾驶辅助还是人开,智能体现在对环境的感知、并适时预警(比如车道线偏离和前车碰撞预警)。


从驾驶辅助到自动驾驶是很大的飞跃。自动驾驶在感知之外,加上了规划/决策和控制。驾驶辅助的感知强调低误报(误报多人们就不用了)、低频触发,人是最终的决策者,所以驾驶辅助出错无伤大雅。自动驾驶的感知有极高的要求,因为把一段时间的控制权完全交与了机器,不仅要求低误报(不然莫名其妙的刹车不但烦人,在高速上很危险),而且要求零漏报,漏一次就是交通事故。


自动驾驶常常有三种不同的形态:


首先辅助驾驶或半自动驾驶,特斯拉的autopilot即是此类。在某些场景下汽车可以进入自动驾驶,比如自动的紧急刹车,在封闭、结构化道路上的自适应巡航和车道保持,还有自动泊车。必须注意的是,这类技术有较大的局限性,特斯拉近日的多起事故都是出现在十字路口、入口/出口和双向路,这超出了autopilot的处理能力。


下一步是高度自动驾驶,在大街小巷多数场景下可以自动驾驶,还能支持多辆车的编队行驶。这类技术的环境感知和驾驶认知能力得到了极大提升,不仅仅能处理上述autopilot不会的路况,甚至能在完全没有车道线的非结构化道路畅行。高度自动驾驶汽车还能在复杂路况下与其他智能车辆或人驾驶的车辆共享或竞争路权。


最后是全自动驾驶或无人驾驶,完全由人工智能来驾驶,可以把方向盘、油门和刹车拿掉。


未来5年,传统车厂和零部件供应商的主要努力方向是第一、第二类自动驾驶,这并不是以拿掉驾驶员为目的的,而是让驾驶员更加安全和舒适。显然这是更稳妥的渐进道路。


而一些人直接选择了无人驾驶作为切入点,同样剑指2020年。他们认为前两种自动驾驶是危险的,因为机器失效时、突现危机的电光石火中驾驶员不一定能立刻进入状态、做出清醒的决策。所以终极的办法是“消灭“驾驶员。这样的车是真正为出行者设计的,小孩、老人、宠物、残疾人都能够开车,出行的权利极大释放。传统车主要卖给消费者,而这类车则是面向运营,好处是运营者可以限制它的运行区域和应用场景,利用区域内的高精度地图,可以布置增强的环境支持(比如GPS地基增强),并且限制速度。


在无人驾驶上谷歌是个中翘楚,技术遥遥领先。即使这样,谷歌还是把这类车的速度限制在25英里/小时(或40公里/小时,提升到35英里/小时的实现难度可能要增加1倍),在城区场景下,这个速度不是大问题,很多大城市的平均通行速度只有20-30公里/小时。


谷歌的第一辆无人车是基于混电车Prius改的,顶上装着64线激光雷达,他们以此来建立高分辨率的三维环境模型,或高精度地图。为了建图,车往往到晚上开出来扫街,因为这时候路上比较清静不易被发现(有人发现了也误以为是街景车),而路面上临时的车辆和其他物体也比较少。


谷歌的第二代无人驾驶车却是来自一个创业公司510 SYSTEMS,其核心Anthony Levandowski是加州大学伯克利分校的,并非出自无人驾驶车三强(卡耐基梅陇、斯坦福和麻省理工),但做的东西非常棒,于是谷歌悄悄把这家公司买下来,并且在其基础上发展出了基于丰田Lexus的平台,一直到现在Lexus仍然是谷歌车队的主流车型,常在路上行驶的有20多辆。


谷歌的第三代无人驾驶车是真正的跃迁,这款车是完全从头设计的,长得萌怪,有点像树袋熊。谷歌在设计上做了很多思考,比如移除了雨刷,因为并不需要有驾驶员在雨中看清路况。按照设计,这种车是没有方向盘的,但由于加州法律的限制,车里还是有个游戏操纵杆作为方向盘。谷歌目前已经有30多辆这种车在路上跑,同时还在大量制造。


谷歌的60多辆车已经行驶了200多万英里,然而在实用上面临一定的问题:一是激光雷达等传感器太过昂贵,二来区区200多万英里不能证明无人驾驶足够安全或比人更好,因为在美国人的驾驶水准是9000万英里才死一个人。


另一条路线逐渐成为主流,他们从驾驶辅助和辅助驾驶开始,死磕以视觉为主的低价方案,试图实现快速商业化。其中翘楚是Mobileye和特斯拉,Mobileye的驾驶辅助系统已经在1000多万辆车上安装,而特斯拉的autopilot在短短7个月间积累了1.3亿英里的自动驾驶里程。


Mobileye从车道线、车辆检测到行人检测,从算法到芯片,从后装的驾驶辅助产品到几百款车型的前装,从驾驶辅助到辅助驾驶,把单目摄像头加传统计算机视觉的技术路线发展到了极致。


但这并没有阻止业界在更广领域的探索。基于多目摄像头的立体视觉,在很多场景下展示出优于单目的感知能力。而在算法上,基于深度学习的汽车视觉算法展现了更强的适应能力,并一定程度上削弱了Mobileye的先发优势。


Mobileye基于10多年的经验和1000万英里的数据,精心设计了分辨车道线和道路目标的识别特征,比如巡航时前面汽车的特征包括车身下的阴影,对称的方形后部,对称的车灯等。但这种方法不能保证从其他角度识别各种形状的汽车,事实上特斯拉的致命车祸中,车上安装的Mobileye摄像头未能认出拖车的横侧面。


在大数据的支持下,深度学习强大的自我特征学习能力超越了多年的人工特征工程。人们发现,传统的计算机视觉算法不能赶上高度自动驾驶的需求,在更复杂的路况中(比如不同角度的汽车识别、完全看不见车道线的非结构化道路),深度学习成为唯一的选择。很多后来者,包括笔者所在的驭势科技,迅速把深度学习应用到汽车感知。当然,Mobileye并没有故步自封,也开始了基于深度学习的探索。


视觉不仅仅是感知的重器,它提供了建立自动驾驶地图的另一种思路。前面讲到,谷歌坚持用激光雷达建立高精度三维地图——稠密点云表征的三维世界,并且通过实时的点云匹配来判断当前位置,但它的问题是:数据量大,每公里需要几个GB的数据,无法把全世界装在硬盘里,目前的网络条件也无法实时下载和更新;另一方面,每辆自动驾驶车都必须装昂贵的激光雷达,这推迟了自动驾驶的普及。


于是业界开始探索新的思路。传统地图厂商,如HERE、TomTom和四维,寻求在现有地图上进一步提高分辨率,增加更丰富的路面语义信息(地标、交通信号、车道、坡度和曲率)。一方面地图测绘需要高端传感器(如激光雷达),测绘完对大量数据做离线处理,变成很小的矢量地图,汽车可以实时下载,另一方面定位时则只需要较低端的传感器。图商和车厂仍需进一步合作验证这样的地图是否适合自动驾驶。


Mobileye以及笔者所在的驭势科技都不约而同地采用视觉地图,因为摄像头每辆车都有,从视觉中提取的地图又特别小,适合实时上传、通过众包的方式更新。事实上基于视觉的定位更接近人的工作方式。我们根据道路上的标志来评估大致的位置,并且根据路面线条的变化做实时的决策(是选哪一条车道,是否上匝道等)。那么,只需从视觉中提取出那些标志和线条,众包上传到地图(每公里只需10KB级别的数据),而行驶时可以通过视觉匹配来获得定位。


在视觉狂飙猛进的同时,其他的技术也在飞速发展。比如视觉加雷达的多传感器融合,在很多场合下能够获得更好的感知能力。视觉的优势是分辨率高,含丰富语义,但缺点是受天气和光照影响;毫米波雷达只能跟踪对象,而无法获知其大小形状,但受环境影响小。两者的融合已经成为目前辅助驾驶的标配,特斯拉的autopilot即是如此(它还有短距离的超声波雷达)。


值得一提的是,特斯拉的致死事故中纵然有Mobileye视觉未能认出拖车横侧面的缘故,也有雷达识别失误的问题。雷达安装较低,垂直扫描角度小,只能在较远的距离看到拖车(拖车底盘高,所以近距离时不能扫描到),在这起事故中拖车被认成龙门或横跨马路的交通标志。目前,各个传感器通常只能在各自识别完成后做融合,这时候的融合逻辑变得非常困难,因此,多传感器的底层、深层融合非常值得探索。我们已经看到雷达和摄像头的合体RACAM,以及激光雷达和摄像头的混血版。


当然固态激光雷达的异军突起将改变感知技术的格局。传统的机械激光雷达要做每秒5-15转的360度扫描,机械马达做到足够可靠、激光发射和接受做到足够精准是非常昂贵的。固态激光雷达通过半导体技术,比如MEMS镜子或相控阵的光学干涉,实现了电子扫描。半导体受益于摩尔定律,可以迅速降低成本。未来5年我们可望看到100-500美金的激光雷达产品。


除了感知,在规划和控制这块我们也看到了长足的发展。传统的规划考虑安全和舒适性,而现在把竞争性也放入了考量。自动驾驶的车辆如何去预测行人和其他车辆的动机和动作?如何激进地并线来获得路权?谷歌和Mobileye等都在开始尝试新的算法,比如采用强化学习和递归神经网络。必须指出,机器学习和专家知识是可以互补的。谷歌年初发生了自动驾驶车撞上大巴的事故,如果在规划中融入对大巴驾驶员判断的经验知识可能可以规避。


另一些勇于吃螃蟹的人试图用深度学习的端到端学习,来整个解决感知-规划-控制的一揽子问题。视觉图像作为输入,经过神经网络,控制信号直接出来。这个思路早在深度学习出来之前就由Yann Lecun试过,并不成功,而近年来深度学习的发展让业界对其又重燃希望(AlphaGo不就是把故纸堆里的Q Learning和深度学习嫁接,取得巨大成功吗?)。英伟达在从感知到控制的端到端自我学习上做出了有益的尝试,谷歌传言也在探索这一方向,黑客George Hotz用2000行代码实现的原型也被奉为传奇,但笔者判断真正实用尚需时日,在规划和控制上有限数据样本的统计学习还不足于取代人类的经验知识。


作者为驭势科技联合创始人,英特尔中国研究院前院长

两月三车祸,莫把特斯拉辅助驾驶当自动驾驶 | 焦点_第4张图片

你可能感兴趣的:(两月三车祸,莫把特斯拉辅助驾驶当自动驾驶 | 焦点)