与非网 2 月 3 日讯,许多黑客曾公开演示过高超的网络技术成功破解汽车系统并控制汽车。不过这次,你并不需要什么网络技术,仅需要一台投影仪就可以骗过特斯拉——具体而言,是特斯拉的 Autopilot2.5 和 Mobileye 的 630 Pro 驾驶辅助系统。

 

Negev 大学的一位名叫 Ben Nassi 博士生发现了一个漏洞,并在《ADAS 幽灵:幽灵对驾驶员辅助系统的攻击》论文中公布了他的研究。

 

除此以外,Ben Nassi 团队还将试验视频上传到了 Youtube。视频中,他们利用投影仪将二维人体影像投射到道路上,测试用的 Model X 并没有识别出它是假的,进行了减速。

 


在另一个测试中,研究团队在地面上投影假的车道线,测试车辆便跟随假车道线进行行驶,并忽略了真实的物理车道线。此外,车辆在投影的“十字路口”继续沿着“车道”行进,结果就是它在实际道路上变道了。

 

研究团队指出,这辆 Model X 出现这类失误或许是因为虚拟车道线比真实车道线更亮。

 

测试中,以色列 Mobileye 公司的 Mobileye 630Pro 系统同样没有分辨出投影仪的虚拟影像,这使得测试车并没有按照该条道路的真实限速进行行驶。

 

“因为特斯拉和 Mobileye 是当前自动驾驶领域最顶尖的两家公司,所以我们会对他们的产品进行测试。”研究团队表示。

 

特斯拉是众多研发自动驾驶技术的企业中最出彩的一家,但是出彩的同时自动驾驶也给特斯拉带来了不少的官司与麻烦。国外最新消息称,据调查 2018 年 1 月特斯拉 Model S 在加州高速公路撞上一辆停在路边的消防车,全责在于特斯拉自动驾驶系统的设计不当!

 

特斯拉自动驾驶系统的设计里有着“允许驾驶员离开驾驶方向盘”,导致司机过度依赖特斯拉自动驾驶系统。这种令司机无法集中注意力的描述对多次事故应负全部责任。

 

特斯拉的辩解

特斯拉曾经为 Autopilot 系统辩护过,并在一份电子邮件中表示:特斯拉车主在使用 Autopilot 的情况下已经行驶了数十亿英里,使用 Autopilot 的司机仍然比那些没有使用辅助自动驾驶的司机更安全。而我们的 Autopilot 驾驶员监控系统不断提醒驾驶员有责任保持专注,并禁止在忽视警告的情况下使用 Autopilot。

 

在特斯拉的汽车说明书中包含了许多关于汽车自动跟车行驶的警告。手册中有一节说,它“不是碰撞警告或避碰系统”。该公司还表示,司机“永远不应该”依赖 Autopilot 来减速。

 

数次的致命车祸

特斯拉的自动驾驶系统在美国至少导致了三次致命的车祸发生。包括 2018 年 3 月在加州山景城发生的致命撞车事故,以及去年 3 月发生在佛罗里达州德尔雷海滩的另一起事故。还有电动汽车锂离子电池的风险,这些电池在几起事故发生后均发生燃烧,且很难熄灭。

 

有关这两个事故,交通安全监管机构和美国国家运输安全委员会提出安全建议,而美国国家公路交通安全管理局(NHTSA)如果认为一个缺陷对汽车安全构成不合理的风险,可以下令进行产品召回。

特斯拉在一份电子邮件声明中表示,自 2018 年撞车事故以来,“我们对系统进行了更新,包括调整实际警告和启动警告条件之间的时间间隔。”

 

据悉特斯拉公司目前正在研发技术水平更高的全自动驾驶,计划在明年推出,届时在整个从住所到单位的驾驶过程中,驾驶人员无需把手放在方向盘上,甚至可以玩手机、工作等。不过在此之前,Autopilot 仍然只是一个辅助驾驶系统,无法彻底取代人类。