这不仅仅是 Uber 的危机,更是整个行业的一次「信任危机」。
 
从奔驰飙车事件,到今天的 Uber 事故,连续两次扑朔迷离的故事看到人心慌慌。事故调查虽然还没有最终定论,但喧闹媒体却无意中给普通大众制造出了一种对技术的「恐慌」。
 
作为「首例自动驾驶汽车撞死行人事故」,Uber 再一次站在了舆论的风口,负面新闻的如潮水般涌来。甚至,更有为了引诱眼球的媒体,起上了「自动驾驶杀人」这样的标题,给一项伟大的技术刻意蒙上道德审判的阴影。
 
类似的事故在另一个「十字路口」已经发生过。2016 年 5 月 7 日,Joshua 驾驶一辆特斯拉 Model S 在美国佛罗里达州的一个交叉路口与一辆拖挂车发生了剧烈碰撞,导致驾驶员不幸丧生。由于碰撞发生时这辆特斯拉轿车处于 utopilot 模式下,驾驶员也没有做出任何规避动作。
 
最终剧情却发生了反转。美国国家公路交通安全管理局(NHTSA)在经过历时七个月的漫长调查之后,在去年 1 月,NHTSA 公布了对特斯拉自动辅助驾驶系统(Autopilot)的调查结果:未检测到特斯拉自动紧急制动系统与自动辅助驾驶系统中存在任何设计与表现的缺陷。NHTSA 还表示:「没有必要对该问题进行进一步审查。」
 
 
虽然得到了一块「免死令牌」,但问题在那时候已经显现。面对即将到来的「自动驾驶时代」,如何在事故发生后界定人或汽车的责任?如何评判自动驾驶汽车的安全性?成为了非常棘手的问题。
 
究竟是谁犯了错?
在这起事故中,自动驾驶车辆上能够拯救受害者的感知系统应该不少于四个。Uber 的这辆自动驾驶汽车其实配备了多个不同的感知系统,包括顶部的激光雷达、前端雷达、短焦和长焦光学相机等等。即使在非常昏暗甚至无光的夜间,激光雷达发射的红外激光脉冲也能主动的感知到物体的距离。
 
 
当天并没有大雾影响,由视频也能看出周围少有遮挡物,所以如果从自动驾驶系统内部评估,「感知系统」嫌疑很小。
 
最大的嫌疑在于「预测系统」。根据警方发布会的初步信息,由车辆停车位置和撞击痕迹推断,事故很可能是由行人没有注意到后方来车,突然左转横穿马路造成的。
 
车上的激光雷达等感知系统可能感知到了「行人」,但并没有识别出「推着车 / 骑着车的行人正在左转」,而「预测」行人处于「直行」的状态下,所以并没有做任何躲避,从而发生事故。
 
当然,还有另一种可能是传感器正确识别了行人,算法做出了反应,但是由于车速过快,车没有能够及时停下。
 
这让人想起了 Uber 之前的一次无人驾驶事故。去年三月 Uber 自动驾驶汽车还与一辆人类驾驶的汽车相撞,导致车辆侧翻在地。但最终据当地警察局发言人 Josie Montenegro 描述,在自动驾驶模式下的 Uber 车辆并没有出现故障和技术失误,对方司机全责。
 
两次事故可能拥有一些共同之处。无人驾驶车辆的行为是合法的,但是又是不合「常理」的、不符合人力驾驶的通常习惯的。
 

 

如果是人驾驶这辆车,就会避免惨剧发生么?
以「事后诸葛亮」的态度假设,通常不会在人行道有人行走的情况下,以 40 英里每小时的速度快速通过临近道路。考虑到安全因素,一部分驾驶员可能会减速,或者会考虑往左非法占道而进行一些避让。