• 正文
  • 相关推荐
申请入驻 产业图谱

为什么“L2 / L3”反而是事故最多的阶段?

01/19 10:00
175
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

很多人有一个直觉判断:自动驾驶等级越高,应该越安全。

但现实却恰恰相反。

在全球公开的事故数据和行业复盘中,一个现象反复被验证:

真正事故最集中的,
不是完全人工驾驶,
也不是高度自动驾驶,
而是 L2 / L3 阶段。

这不是偶然,而是一个系统性问题


一、先给结论:不是技术太差,而是“人 + 系统”最危险

一句话总结原因:L2 / L3 最大的风险,不在技术本身,而在“人和系统之间的灰色地带”。

这正是最容易被低估、也最致命的部分。

二、L2 / L3 的本质问题:责任不清

我们先不讲 SAE 定义,直接讲现实。

L0 / L1:

人在开车

系统只是辅助

出事了,大家都知道是谁的责任。


L4 / L5:

系统在开车

人基本不参与

出事了,系统兜底,责任清晰。


 L2 / L3:最尴尬的状态

系统“看起来”在开

人“理论上”要负责

但双方都不完全掌控

责任在心理上被“模糊化”了。


三、L2:人太容易“高估系统”

这是现实中事故最多的来源

1️⃣ 系统表现“太像自动驾驶了”

自动跟车

自动转向

自动刹车

长期使用后,驾驶员会不自觉地认为:“它应该能搞定。”

即使厂家反复强调:“请随时接管。”

但人的行为不会听说明书。

2️⃣ 人类对“稳定系统”有天然信任偏差

心理学上有一个现象:系统越稳定,人越容易放松警惕。

L2 系统恰好处在:

绝大多数时间没问题

偶尔出致命问题

这是最危险的组合。

 

3️⃣ 一旦出问题,人反应不过来

很多事故不是“没提醒”,而是:

提醒太晚

或驾驶员已经“不在驾驶状态”

从认知恢复到操作,人类通常需要 1.5~3 秒。高速下,这已经足够致命。


四、L3:技术更进一步,风险反而更复杂

L3 表面上比 L2 高级,但现实中,它更难做安全

1️⃣ L3 最大的难题:接管悖论

L3 的核心设定是:系统开车,但需要时人必须立刻接管。

这听起来合理,但在工程和人因上几乎是“反直觉”的。

问题是:人在系统驾驶时,注意力天然下降

但系统却要求:“你要随时准备救我”

这是一个违反人类认知规律的设计。

 

2️⃣ 系统比人“更早知道自己不行”

L3 系统通常能检测到:

场景超出能力

传感器受限

风险上升

于是发出接管请求。但问题是:系统知道,不等于人理解。

很多事故发生在:系统已判断“我不行了”,人却不知道为什么有多危险

3️⃣ 最危险的时刻:系统放弃控制的一瞬间

L3 的事故,往往集中在:自动 → 人工的切换瞬间

这是整个自动驾驶体系中:

动态最剧烈

不确定性最高

责任最模糊的时刻。


五、为什么 L4 / L5 反而更“干脆”?

这听起来有点反直觉,但逻辑很简单。

L4 / L5 的核心优势只有一个:系统对自己负责。

不依赖人类随时介入

不假设人“保持警觉”

不把关键安全责任交给“半参与者”

要么能开,要么不开。

反而安全逻辑更干净


六、很多事故的根因,不在算法

复盘大量事故会发现:

算法不是完全失效

硬件也不是突然坏掉

真正的问题是:“谁以为谁在负责”。

人以为系统会处理

系统以为人会接管

结果是: 没有人真正负责那一刻。


七、这对行业意味着什么?

对车企和系统供应商:

L2/L3 的安全设计,人因工程比算法更重要

接管机制不是“功能”,而是“安全生命线”


对监管和管理层:自动驾驶等级≠ 安全等级

“可控失败”比“正常表现”更重要


对普通用户:当前阶段,把 L2/L3 当成“高级辅助”,而不是“自动驾驶”。


八、最后一句话总结

L2 / L3 不是因为不先进,而是因为它们站在“人类不擅长、系统也不完全可靠”的交界处。

真正危险的,从来不是技术本身,而是责任被模糊的那一刻

相关推荐