扫码加入

  • 正文
  • 相关推荐
申请入驻 产业图谱

揭秘特斯拉 FSD 核心:端到端算法的“三大难点”与“独门解法”以及对语音控车的想法

2小时前
128
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

特斯拉 AI 负责人 Ashok Elluswamy 在最近2026 ScaledML Conference 的演讲中又一次深入剖析了 FSD(完全自动驾驶)背后的技术哲学,为什么要彻底抛弃传统的规则代码?端到端(End-to-End)架构到底难在哪里?特斯拉又是如何用“世界模型”和“高斯泼溅”等黑科技逐一击破的?也分享了特斯拉对VLA语音控车的一些想法。
大家阅读下文的时候看到ppt图片肯定觉得眼熟,之前不少博主都科普了很多遍,但我看之前的解读都没有特别深度,所以这两天花时间像素级的看了一遍又一遍,按照如下章节解读:

    为什么要破除规则采用端到端算法?端到端的难点?特斯拉的解法!FSD的解法,适用于Physical AI的机器人特斯拉有没有使用类似VLA的语音控车,未来会不会用?

希望给大家带来一些有用的信息。在解读之前,先铺垫下特斯拉的系统优势,我们之前文章《特斯拉FSD算法技术解读 - 国内FSD测试特斯拉真输了么?》老早也就是指出了特斯拉FSD的基本优势 - 行云流水老司机。Ashok Elluswamy也在演讲中开头就讲到,特斯拉使用端到端(End-to-End)的驾驶系统来构建自动驾驶软件。他单一的端到端大模型,运行频率是36hz,这个36hz的意思是1s钟产生36个车辆运动输出,也就是27.8ms就有一个运动动作输出,而很多竞品基本还在10hz左右。你可以类比特斯拉的FSD犹如你看的手机和电视屏幕是高刷,动作会更流畅和丝滑。它接收原始传感器输入——主要是来自车上 8 个摄像头的视频,但也包括导航指令、运动学状态(如车速、转向角度等)、音频等——然后直接输出车辆应该如何表现,即下一步的动作,比如转向、加加速度(jerk)等。
这就是特斯拉FSD的大模型一个高阶的概述。

为什么要破除规则采用端到端算法?

Ashok Elluswamy总结了三个原因,分别是人类价值观编码极其困难,感知、预测和规划之间的接口定义不清,驾驶行为所有行为紧密耦合。这些导致规则化的方法没有未来。1.Codifying human values is incredibly difficult(将人类价值观编码极其困难)现实当中的驾驶不是非黑即白的逻辑题,而是充满了无数微小的“电车难题”和价值权衡。程序员无法通过写 if-else 代码来穷尽所有人类在驾驶时的判断逻辑。Ashok Elluswamy在演讲中举了一个水坑 vs. 对向来车的例子:场景:你的车道前方有一个水坑,想要绕过去就必须压线,甚至借用一点对向车道。规则冲突:你有两条规则。规则A是“避开障碍物(水坑)”,规则B是“严禁逆行”。人类的直觉: 如果对向没车,或者对向车很远,或者水坑很深,我们会选择压线绕行;如果对向车很快,或者水坑只是浅水,我们会选择直接压过水坑。编码的困境: 如果要写代码,你需要定义水坑多深才算深?对向车多远才算远?这就陷入了“抽象泄漏(Leaky Abstractions)”。你想写死规则,但现实总有例外。
端到端的解法: 不写规则,让 AI 看成千上万个人类司机在这种情况是怎么做的。AI 会学习到一种隐性的“价值观概率分布”,而不是僵化的代码。2. Interface between perception, prediction and planning is ill-defined(感知、预测和规划之间的接口定义不清)在传统的模块化架构中,模块之间需要传递信息。上游(感知)必须决定“抛弃什么信息”和“保留什么信息”传给下游(规划)。这个“接口”怎么定义,往往会丢失关键的细节信息。Ashok Elluswamy在演讲中举了一个“小鸡与鹅的腿部动作”的例子:传统困境: 假设感知模块识别出前方有“一只鸟”。它传给规划模块的信息可能只是 Object: Bird, Location: (x,y)。规划模块收到这个信息,不知道该停还是该走。因为规划模块“看”不到鸟的动作细节。接口定义的荒谬: 为了解决这个问题,你可能需要修改接口,增加一个字段 Leg_Moving: True/False。这就变成了一个笑话——难道要专门写一个“鸡腿探测器”吗?世界上有无数种物体,你不可能为每种物体定义专属的接口字段。
端到端的解法: 消除接口。原始的视频像素(包含了鸡腿在动的信息)直接流向控制端。AI 不需要被告知“这是一只鸡”,它只需要学会“看到这种像素模式(腿动),我就得停下来”,信息在系统中是无损流动的。3. All behaviors tightly coupled(所有行为紧密耦合)一般传统的软件工程喜欢“解耦”(Decoupling),即把大问题拆成独立的小问题。但在机器人和自动驾驶领域,感知及控制是分不开的,拆分会导致延迟和误判。Ashok Elluswamy在演讲中举了一个“高速避险与延迟”的例子:紧密耦合的现实: 你的车速决定了你需要看多远(感知服务于控制);你看到的危险程度决定了你刹车的力度(控制依赖于感知)。传统困境: 如果分为三个模块,感知处理完 -> 传给预测 -> 传给规划。每一步都有延迟(Latency)。当规划模块决定刹车时,世界已经变了(几十毫秒在高速下就是好几米)。三阶智能案例: 演讲中提到前车失控的案例。AI 观察到前车微小的横摆角速度异常(Perception),瞬间预判它会弹回来(Prediction),并立刻决定猛踩刹车(Planning)。在端到端网络中,这三个步骤是在同一个神经网络的前向传播中瞬间、整体完成的。总结下来就是,试图用人类的逻辑语言(代码规则)去描述复杂的物理世界是行不通的。

    因为人类价值观太复杂(难以编码);因为世界细节太丰富(接口无法定义);因为反应要求太快且环环相扣(模块化导致割裂)。

所以特斯拉选择了端到端:让数据说话,用神经网络的复杂性去匹配物理世界的复杂性。端到端的解法,将所有行为视为一个整体任务。网络根据环境直接输出动作,确保了确定性的低延迟(演讲中提到的 36Hz 控制频率),并且能利用整体上下文做出反应,而不是基于过时的、被切割的信息片段。

端到端的难点?特斯拉的解法!

特斯拉意思是端到端是目前的最优解,但是要落地端到端并不是一句话的事情,他至少有以下几个难点:1. 维度的诅咒 (Curse of dimensionality)这个挑战指的是输入数据的极度庞大与输出动作的极度精简之间的巨大鸿沟。输入端的数据爆炸:特斯拉车辆拥有 8 个高分辨率摄像头(500万像素),运行在高帧率下。为了做出正确的驾驶决策(例如在停车标志处判断谁先到),系统需要理解过去一段时间的历史上下文(比如 30 秒)。将这些视频流和历史数据加在一起,神经网络每时每刻需要处理大约 20 亿个 Token(信息单元)。输出端的极度压缩:尽管输入了海量信息,最终的输出却非常简单,只有 2 个动作:转向角度和加速/刹车力度。
核心难点:因果关系的提取将 20 亿个 Token 压缩为 2 个动作,难点在于区分“真正的因果”与“虚假的关联”。例子: 车辆停下来,是因为前面的车亮了刹车灯(真因果),还是因为路边的一棵树刚好晃动了一下(虚假关联)?在海量的数据中,如果只给模型看平庸的驾驶视频(比如一直在高速上直行),模型很容易学到错误的关联。因此,特斯拉必须从车队每天产生的 500 年驾驶数据中,挖掘出极少数的“有趣数据”(如校车、事故、罕见交通状况)来训练模型,让它学会正确的因果逻辑。这里特斯拉算是告诉大家他有一个独门绝技就是海量数据里面淘金的能力。特斯拉不会收集所有数据,而是通过“触发器”筛选有价值的信息:

    极小神经网络(Tiny NNs):在车端运行微型模型,专门捕捉特定场景(如紧急车辆、特殊障碍物)。事后验证:评估系统的预测与实际发生的情况是否一致。人工干预:任何人类驾驶员接管或干预 FSD 的时刻,都是极佳的学习样本。状态空间剧变:当环境发生剧烈变化或出现罕见状况时触发采集。

2. 可解释性与安全保证 (Interpretability and safety guarantees)端到端神经网络常被视为“黑盒”,这带来了安全隐患:如果车撞了,我们怎么知道它是没看见障碍物,还是判断错了?特斯拉表示他们能够打破“黑盒”,他的神经网络不仅仅是在做简单的像素匹配,而是真正理解了物理世界。
这次特斯拉倒是告诉大家他的解法:采用思维链CoT与过程验证。大家是不是一听端到端大模型就是,从光子到电机信号?错!特斯拉的基础模型有多重输出 (Foundation model predictions)。虽然这是一个端到端的模型(输入像素 -> 输出控制),但它被设计为同时预测许多“人类可理解的中间结果” (interpretable outputs)。这些输出就像是插入模型内部的“探针”,用来监测模型是否真正理解了世界。具体包括以下几个维度:

    物理世界的理解 (3D occupancy and flow):模型会输出它眼中的 3D 空间占用情况(哪里有东西,哪里是空的)以及物体的流动(速度、方向)。如果车撞了障碍物,可以检查这一层:是模型没看见障碍物(感知错误),还是看见了却没刹车(控制错误)?物体识别 :模型会明确标出这是车、那是人、那是自行车。证明模型具备语义理解能力,而不仅仅是处理像素颜色。交通规则与环境 :识别红绿灯、路标、车道线、道路边界、限速牌等。验证模型是否遵守了人类社会的交通规则。交互预测:预测其他交通参与者是否会与自己发生交互(例如:那个行人会不会突然冲出来?那辆车会不会加塞?)。 展示模型的预判能力和风险评估逻辑。

最后,这些东西会形成自然语言解释 (Decisions expressed as plain language):这是最直观的一层。模型可以直接用英语输出它的决策理由。 模型可能会输出:“我正在减速,因为前方检测到一名行人准备横穿马路。”这让调试变得像对话一样简单,极大地增强了人类对系统的信任。
如上图一样,大模型输出动作,但同时会输出环境理解的一些特征,然后形成思维链推理形成逻辑闭环。当然特斯拉并没有像国内厂商一样,把这个思维链秀出来,估计特斯拉如果秀出来,大家也就可以蒸馏特斯拉的模型了。对于物理世界的理解,特斯拉有一个独门绝技就是,特斯拉自研的生成式高斯泼溅(Generative Gaussian Splatting)技术。特斯拉的神经网络不仅输出驾驶动作,还能在220毫秒内实时重建车辆周围的 3D 世界。这可以证明端到端大模型确实识别出了车辆、行人及其位置和形状,而不仅仅是处理二维像素。
现在自驾行业,3D高斯已经很火了,但是特斯拉表示大家用的传统3D高斯,需要30分钟才能生成场景,同时失真很难用在动态物体上面。对于推理,特斯拉采用的独门绝技是“系统 2 思维”(System 2 Thinking),这个词很熟悉,理想之前讲过的快慢系统,特斯拉应该也采用了,特斯拉的端到端神经网络不仅能“看见”像素,还能像人类一样阅读、思考和解释复杂的交通逻辑。
这个可以看我们之前视频。复杂的路障与绕行,图片左侧是车辆的前视摄像头画面。前方道路被橙白相间的施工护栏堵死,并立有“ROAD CLOSED THRU TRAFFIC”(道路关闭,禁止通行)和绿色的“DETOUR”(绕行)标志。AI 成功检测并标记了“detour sign”(绕行标志)和“construction barrier”(施工护栏)。然后采用自然语言逻辑推理产生动作结论。3. 评估,如何验证你确实行。特斯拉表示在实现自动驾驶过程中面临的第三个、也是被 Ashok Elluswamy 称为“最难”的挑战是评估,如何验证你确实行。特斯拉指出了传统机器学习评估方法在自动驾驶领域的局限性:

    损失函数(Loss)并非万能: 在常规 AI 训练中,我们会看“损失函数”是否下降。但在驾驶中,即便损失值非常低,模型也可能在某个关键的“长尾”场景(如突然冲出的行人)中犯下致命错误。现在大家的虚拟仿真测试一般都是开环(Open-loop)的,AI 只是在看视频预测人类会怎么开,它并不实际控制车辆,而闭环的环境中,自动驾驶的每一个动作都会改变接下来的视觉输入。所以在开环仿真测试下表现良好的模型,在闭环实际行驶时,微小的误差可能会不断累积,最终导致车辆偏离航道或发生碰撞。

所以特斯拉采用的是多模态与行动后果预测特斯拉认为避免事故的方法不止一种。面对障碍物,你可以刹车,也可以向左或向右绕行。评估指标必须能够捕捉并认可这些不同的、但同样安全的路径,而不是强制要求 AI 只做唯一的“标准动作”。特斯拉提出了一种更高级的评估方案“行动后果预测(Consequence-of-action)”,不仅仅看 AI 做了什么,还要看它是否预见到了动作的后果。
这就引出了特斯拉的神经网络闭环模拟器(Neural Network closed-loop simulator),也被称为“世界模型”。这是特斯拉为了在不依赖真实道路测试的情况下,实现对自动驾驶系统的闭环评估而构建的一个虚拟世界生成器。
采用这个神经网络闭环模拟器,就能解决提到的“开环 vs 闭环”评估难题。他构建了一个虚拟考场: 有了这个模型,特斯拉就可以把自动驾驶策略模型(Policy Network)放进去。
然后进行闭环测试:策略模型看到 t 时刻的画面 -> 决定做一个动作 -> 世界模拟器根据动作生成 t+1 时刻的新画面 -> 策略模型再看新画面 -> 再做动作……这样 AI 就可以在一个完全由神经网络生成的虚拟世界里“练车”。哪怕 AI 在这里撞车了(比如生成了碰撞的视频画面),现实中也没有任何损失。这让特斯拉能够安全地测试各种极端危险的边缘场景。里面的World Sim NN就是一个世界模型,他采用特斯拉“廉价”收集的‘状态-动作’数据进行训练”。这些数据都是特斯拉车队回传回来的真实海量数据case,而且无需人工标注: 训练这个模型不需要人类去画框或打标签。
特斯拉通过开发“生成式世界模拟器”,让 AI 在虚拟但真实的闭环环境中进行数百万次的极端测试,从而解决了这一难题。

FSD的解法,适用于Physical AI的机器人

特斯拉表示,这一整套系统——端到端驾驶网络和世界模拟器——不仅适用于自动驾驶,也是机器人技术的基础模型(Foundation model)。 同样的视频生成网络可以泛化到生成 Optimus 机器人行走的室内场景。这也是可控的,你可以输入“直行”或“左转”的动作,视频生成会正确反映这些动作。同样,它也适用于机械臂的操作(如打开抽屉)。

特斯拉有没有使用语音控车?

根据Ashok的现场问答,目前特斯拉车辆确实有 Grok,你可以和它聊天。另外,FSD确实有自己的音频模型,但对于FSD来讲,目前不是用于自然语言交互,更多是用于理解汽车周围的噪音(如警笛和紧急车辆)。在未来,特斯拉会拥有完全集成的语音控制命令来控制车辆。但他们认为现在还为时过早。这开启了一个全新的测试领域。例如,你不应该能告诉汽车去撞车,然后它就真的撞了。为了防止使用语音的对抗性攻击,需要进行大量的安全工作。目前这还不值得这么麻烦。这个和我们之前文章《特斯拉 Grok + FSD = VLA?》推断是一致的。最后希望,解释得比较清楚。不过大概FSD的原理比较简单,相信国内各家主机厂真正搞算法的人都懂这个方法论,毕竟华人不少在特斯拉,湾区碰一碰party一下,交换信息都熟了。但是各家投入的资源个核心落地能力确不一样,所以一般都是照虎画猫了。

*未经准许严禁转载和摘录-获取本文参考资料方式:加入我们的知识星球可以下载公众号海量参考资料包含以上参考资料。

相关推荐