很多人有一个直觉判断:自动驾驶等级越高,应该越安全。
但现实却恰恰相反。
在全球公开的事故数据和行业复盘中,一个现象反复被验证:
真正事故最集中的,
不是完全人工驾驶,
也不是高度自动驾驶,
而是 L2 / L3 阶段。
这不是偶然,而是一个系统性问题。
一、先给结论:不是技术太差,而是“人 + 系统”最危险
一句话总结原因:L2 / L3 最大的风险,不在技术本身,而在“人和系统之间的灰色地带”。
这正是最容易被低估、也最致命的部分。
二、L2 / L3 的本质问题:责任不清
我们先不讲 SAE 定义,直接讲现实。
L0 / L1:
人在开车
系统只是辅助
出事了,大家都知道是谁的责任。
L4 / L5:
系统在开车
人基本不参与
出事了,系统兜底,责任清晰。
L2 / L3:最尴尬的状态
系统“看起来”在开
人“理论上”要负责
但双方都不完全掌控
责任在心理上被“模糊化”了。
三、L2:人太容易“高估系统”
这是现实中事故最多的来源。
1️⃣ 系统表现“太像自动驾驶了”
自动跟车
自动转向
自动刹车
长期使用后,驾驶员会不自觉地认为:“它应该能搞定。”
即使厂家反复强调:“请随时接管。”
但人的行为不会听说明书。
2️⃣ 人类对“稳定系统”有天然信任偏差
心理学上有一个现象:系统越稳定,人越容易放松警惕。
L2 系统恰好处在:
绝大多数时间没问题
偶尔出致命问题
这是最危险的组合。
3️⃣ 一旦出问题,人反应不过来
很多事故不是“没提醒”,而是:
提醒太晚
或驾驶员已经“不在驾驶状态”
从认知恢复到操作,人类通常需要 1.5~3 秒。高速下,这已经足够致命。
四、L3:技术更进一步,风险反而更复杂
L3 表面上比 L2 高级,但现实中,它更难做安全。
1️⃣ L3 最大的难题:接管悖论
L3 的核心设定是:系统开车,但需要时人必须立刻接管。
这听起来合理,但在工程和人因上几乎是“反直觉”的。
问题是:人在系统驾驶时,注意力天然下降
但系统却要求:“你要随时准备救我”
这是一个违反人类认知规律的设计。
2️⃣ 系统比人“更早知道自己不行”
L3 系统通常能检测到:
场景超出能力
传感器受限
风险上升
于是发出接管请求。但问题是:系统知道,不等于人理解。
很多事故发生在:系统已判断“我不行了”,人却不知道为什么、有多危险
3️⃣ 最危险的时刻:系统放弃控制的一瞬间
L3 的事故,往往集中在:自动 → 人工的切换瞬间
这是整个自动驾驶体系中:
动态最剧烈
不确定性最高
责任最模糊的时刻。
五、为什么 L4 / L5 反而更“干脆”?
这听起来有点反直觉,但逻辑很简单。
L4 / L5 的核心优势只有一个:系统对自己负责。
不依赖人类随时介入
不假设人“保持警觉”
不把关键安全责任交给“半参与者”
要么能开,要么不开。
反而安全逻辑更干净。
六、很多事故的根因,不在算法
复盘大量事故会发现:
算法不是完全失效
硬件也不是突然坏掉
真正的问题是:“谁以为谁在负责”。
人以为系统会处理
系统以为人会接管
结果是: 没有人真正负责那一刻。
七、这对行业意味着什么?
对车企和系统供应商:
L2/L3 的安全设计,人因工程比算法更重要
接管机制不是“功能”,而是“安全生命线”
对监管和管理层:自动驾驶等级≠ 安全等级
“可控失败”比“正常表现”更重要
对普通用户:当前阶段,把 L2/L3 当成“高级辅助”,而不是“自动驾驶”。
八、最后一句话总结
L2 / L3 不是因为不先进,而是因为它们站在“人类不擅长、系统也不完全可靠”的交界处。
真正危险的,从来不是技术本身,而是责任被模糊的那一刻。
175