最近一段时间,无论你是否关注科技圈,都会被“养龙虾”的相关内容刷屏,所谓“龙虾”,指的是开源智能体框架OpenClaw。它之所以突然爆火,并不是因为模型能力有了质变,而是因为AI开始具备执行能力,可以自己调用工具、操作系统,完成一整套任务。
智能体延伸出去的场景其实可以非常特殊,当智能体可以操作软件,自然就可以进一步操作硬件。在此之前,智驾最前沿还专门针对此进行了一番讨论(相关阅读:OpenClaw是图新鲜,还是真需求?)。
本以为智能体最多只会在手机、电脑等载体上搭载,但就在最近,却看到有些车企尝试在车辆上布局智能体。汽车作为高速移动、关系公共安全的载体,让智能体上车,到底是进步,还是风险?
从“会说”到“会做”,车的角色正在变化?
过去这些年,大模型的能力主要集中在理解和生成。无论是语音助手还是智能座舱,本质都是在做一件事,把人说的话理解清楚,再反馈一个结果。
但智能体的逻辑不一样,它中间多了一层“执行”。OpenClaw这类系统的核心能力,是在接收指令后,自动拆解任务、调用工具,并持续运行完成目标。
把这个能力放到汽车上,能做的或将不再是简单的语音交互,而是会影响整车行为。
这时候,车的角色就发生变化了。它不再只是一个执行控制指令的机械系统,而是一个可以理解意图并主动决策的系统。比如同样一句“我赶时间”,传统系统只会调整导航,而智能体有可能改变跟车距离、加速策略甚至路线选择。再比如“车里有人在睡觉”,它可以主动降低驾驶风格的激进程度,以保证稳定的驾驶。
这类能力的本质,是可以把“语义”直接映射到“驾驶行为”。这一步,是传统架构做不到的。
智能体和传统大模型的差别,不只是能力更强
很多人容易把智能体理解为“大模型升级版”,但这个理解其实是不准确的。
大模型解决的是认知问题,它输出的是一段话、一个判断这类的信息。而智能体解决的是执行问题,它输出的是动作。
智能体在电脑里的具体体现就是可以直接操作系统。而在车上,若将其权限直接给足,其能做的或将是可以决定方向盘、油门和制动。
这时就会带来一个非常现实的问题,即系统的风险属性发生了变化。
从已有的研究来看,这类具备工具调用能力的智能体,在面对模糊指令或复杂任务时,容易因为理解偏差产生放大效应,小的误判会被执行链条放大,最终转化为高影响行为。同时,由于其具备持续运行能力和较高的系统权限,一旦被攻击或误导,影响范围也远大于普通对话模型。
在汽车这种高安全场景中,影响的就不是体验问题,而是安全问题。
为什么车企要让智能体上车?
对于车企来说,智能体上车并不是“尝鲜”,而是一种路径选择。
自动驾驶发展到现在,核心问题并不在感知,而在决策。规则系统可以处理确定性场景,但在复杂、模糊、需要理解语义的情况下,系统会变得僵硬或者保守,很难达到人类驾驶员的程度。
大模型的引入,本来是为了解决“理解问题”,但它本身无法直接参与控制。智能体正好补上这一层,把理解结果转化为行为策略,从而打通从感知到控制的链路。
换句话说,智能体并不是在替代自动驾驶,而是在重写自动驾驶的上层逻辑。
这也是为什么车企会在这个阶段开始尝试这条路线。因为如果不做,现有架构将很难继续往上突破,无人驾驶也将遥遥无期。
真正的分歧,不在技术,而在边界
如果只从能力的角度看,智能体上车一定是必然,它确实能让车更“懂人”,也更灵活。但影响智能体是否可以上车的其实不在能力,而在控制边界。
汽车和其他终端最大的区别,是它必须在任何情况下都可以保持确定性安全。传统控制系统之所以复杂,是因为它的每一个行为都需要可验证、可约束。
而智能体的决策机制,本质上是概率驱动的。它可以在大多数情况下做出合理选择,但很难保证在所有情况下都符合预期。
这就带来一个很直接的问题,它到底能控制到哪一层?
如果智能体只参与理解用户意图、调整策略等高层决策,那风险是可以通过规则系统兜住的。但如果它直接参与轨迹生成甚至直接控制执行等底层控制,那就不得不面对一个问题,当AI的不可预测行为,闯进了汽车的安全闭环系统,我们该怎么办?
而这件事目前没有成熟答案。
或许智能体上车短期内会呈现出一种状态,那就是能力展示很激进,实际使用很保守。
你可能会看到很多演示场景中智能体有非常突出的表现,比如智能体可以依据一句话完成变道或自动选择驾驶策略。但在量产环境中,大概率还是会采用分层结构。
譬如智能体负责理解和决策建议,底层仍然由传统控制系统执行,并保留严格的约束条件。这种结构本质上是给智能体套上了安全壳。因为一旦放开控制权限,系统验证难度将会呈指数级上升。
智驾最前沿认为,智能体上车到底是好是坏,其实取决于怎么用
把问题简单归结为“好还是坏”并不准确,智能体带来的价值是明确的,它可以让车更贴近人的需求,提升决策的灵活性,也可能降低系统对复杂规则的依赖。从长期看,这是自动驾驶走向更高阶能力的必经阶段。
但它也引入了一个不可完全解释、不可完全预测的决策机制,而汽车恰恰是一个对确定性要求极高的系统,现在依然要以“安全”作为最重要的评价指标。
所以智能体上车真正关键的不是“上不上车”,而是智能体参与到什么程度?还有就是安全体系是否随之重构?
如果只是把智能体叠加在原有架构上,而没有重新设计安全边界,那么它带来的不确定性,会远大于它带来的收益。
最后的话
“龙虾”的爆火,其实已经说明了一点,那就是AI的价值正在从“信息处理”转向“行动能力”。而当这种能力进入汽车,事情就变得不一样了。
车不再只是执行系统,而是开始具备一定程度的自主决策能力的载体。这一步带来的不是简单的体验升级,而是系统性质的变化。从这个角度看,智能体上车既不是单纯的进步,也不是简单的风险,它更像是一次结构性的转折。
而对于智能体上车,我们真正要考虑的或许是在一个必须绝对安全的系统里,应该允许其能够多智能。
176