特斯拉 FSD V14.3(软件版本 2026.2.9.6)于 2026 年 4 月初正式开启更大范围的推送。这版是被马斯克称为全自动驾驶“最后一块拼图”的更新,绝不仅仅是一次常规的场景功能修补,而是系统底层架构的一次彻底重构。
对于一直关注自动驾驶产品演进与 AI 工程化落地的专业人士而言,V14.3 展示了从“规则驱动”向“纯数据驱动”跨越时,如何在算力基建、感知网络与数据飞轮三个维度实现质变。以下是该版本的核心功能、性能提升、以及实际评测结论、技术亮点的详细拆解总结。
看完你会明白,自动驾驶产品技术演进的方向,以及其背后的核心技术点。
1. 官方核心功能与性能提升(Release Notes)
Tesla AI 官方直接列出的改进如下(已开始推送):
反应速度提升20%:AI编译器和运行时从底层完全重写,使用MLIR(Multi-Level Intermediate Representation)框架,车辆感知-决策-执行更快,让 转瞬即逝的split-second决策更自信。
停车更果断、智能:停车位选择和机动性 decisiveness 大幅提升;地图上新增“P”图标预测停车位置;临时系统降级时能自动维持控制并恢复,减少不必要接管(为未来高级自动泊车功能Banish等功能打基础)。
复杂场景处理优化:
复杂交叉口交通灯(复合灯、弯道、黄灯停车)处理更好。
紧急车辆、学校巴士、路权违规者、罕见车辆响应增强。
小动物处理改善(RL训练聚焦hard examples + 主动安全奖励)。
罕见/异常物体(伸出、悬挂、倾斜进车道,如低树枝、施工设备)识别和避让更好。
感知与低能见度提升:神经网络视觉编码器(vision encoder)升级,3D几何理解、交通标志识别更强,低能见度(雨、雾、夜间)场景表现更好。
驾驶行为更人性化:减少不居中的表现(lane biasing)和轻微尾随;整体更平顺、果断,干预次数减少。
其他:Cybertruck 实现与Model Y等车型FSD功能完全对齐,并新增“Parked Blind Spot Warning”(停放时盲区警告,防止开门撞人/车/自行车)。
即将到来的重磅功能预览 (Upcoming Improvements)
在 2026.2.9.6 的发布说明中,特斯拉还明确预告了几个即将在后续小版本中加入的杀手级功能:
全局行为推理扩展 (Expand reasoning to all behaviors):目前系统的推理主要集中在如何到达目的地。未来,端到端模型的推理能力将覆盖从起步到停车的每一个细微驾驶行为,实现真正的全域端到端。
坑洼避让 (Pothole avoidance):这项备受期待的功能即将实装,车辆将能够主动识别路面坑洼并进行平滑的绕行规划。
DMS 驾驶员监控系统升级:车内的监控系统灵敏度将进一步提升。特别是针对驾驶员视线追踪(eye gaze tracking)、佩戴墨镜/眼镜时的识别(eye wear handling),以及在复杂多变光线下的准确性将进行针对性优化。
2. 路测体验与性能升级总结
结合目前YouTube上多位早期测试者(如 Chuck Cook、Whole Mars Catalog、Dirty Tesla、Sawyer Merritt、Ananto 等)的第一手试驾体验以及专业科技媒体的反馈,FSD V14.3 版本在实际路测中展现出了极高的成熟度。底层的 AI 编译器重构和 20% 的反应速度提升,在实际驾驶中带来了立竿见影的效果。
以下是 FSD V14.3 版本的试驾体验和性能升级的详细总结:
1. 反应速度与安全性的“跨越式”提升
官方宣称的“反应速度提升 20%”在实测中感受极为明显,车辆在紧急和边缘场景下的处理更加游刃有余:
极限避险能力增强:试驾者 Dirty Tesla 在路测中遭遇其他车辆突然违规加塞,FSD V14.3 瞬间做出反应并成功避让,避免了一场严重的碰撞事故。
对盲区和突发状况的瞬时制动:在夜间遇到行人突然走入车道,或在停车场遇到旁车突然倒车驶出时,车辆能够几乎瞬间完成制动,响应速度甚至超越了人类驾驶员。
敏锐的环境捕捉:车辆对黄灯的反应变得更快、更准确。甚至有测试者(Ananto)观察到,车辆仅因为路面飞过“一片落叶”就触发了极速的轻微点刹反应(系统将其判定为需要防范的小物体/小动物)。
路口起步更利落:在停止标志(Stop Sign)前,车辆起步明显更加干脆果断,彻底修复了以往版本中常见的在白线前“双重停车(犹豫停顿两次)”的顽疾。
2. 决策果断性与导航逻辑的优化
系统在复杂路况下的变道和路线规划逻辑变得更加聪明和前瞻:
告别“犹豫不决”的变道:试驾者 Sawyer Merritt 发现,以往版本经常会出现“打了转向灯却迟迟不变道”的尴尬情况,而在 V14.3 中,只要打灯,车辆就会果断且顺畅地完成变道。
更具前瞻性的导航准备:资深测试者 Chuck Cook 注意到,在高速公路上,车辆现在会提前 1.5 到 1.7 英里(约 2.4 - 2.7 公里)就开始向右变道以准备驶出匝道,而不是像以前那样等到最后 0.6 英里才手忙脚乱地强行并线。
能“读懂”标志并纠正错误地图:即使导航地图给出了错误的路线(例如指示车辆转入一条单行道逆行),FSD 现在能够通过视觉识别路边的“禁止驶入(Do Not Enter)”标志,并主动拒绝执行错误的转弯指令。
3. 更“拟人化”的驾驶质感
多个测试者不约而同地使用了“更像人类(Human-like)”来形容这版软件,机器人的生硬感被大幅削弱:
极致平顺的加减速:Whole Mars Catalog 指出,车辆的加减速过渡拥有了非常自然的“坡度(gradient)”,彻底告别了机械式的顿挫感。
车道偏置与尾随改善:减少了不必要的靠左侧车道线行驶的问题,跟车距离也更加自然,减轻了轻微追尾倾向。
Mad Max(疯狂的麦克斯)模式优化:在 Cybertruck 等车型上,以往的 Mad Max 模式起步过于猛烈导致体感不适,现在经过重新调校后变得既进取又舒适,并且能非常漂亮、激进地处理环岛路况。
4. 泊车(Parking)的惊喜与局限
由于引入了更高级的推理能力,泊车是本次更新的一大重点,但实测表现依然喜忧参半:
成功案例:
在地图上会新增 “P” 图标 以预测泊车点位。
Whole Mars Catalog 在多层停车库中一次性完美停入车位(此前版本经常在车库内迷路或绕圈)。
Dirty Tesla 体验了极其精准的极限窄车位泊车(两边距离极近),动作一气呵成。Ananto 也在繁忙的 Costco 停车场迅速锁定了空位并完成停泊。
失败/局限案例:
Chuck Cook 发现车辆在抵达目的地后,为了寻找车位绕着街区无限转圈,甚至错过了就在眼前的完美空车位,缺乏真正的“推理”变通能力。
Dirty Tesla 的车辆虽然完美停入,但没有识别出那是“警车专用”车位。
Ananto 指出,在倒车入库时如果遇到路缘石(Curb),由于后视摄像头在越过路缘石后存在视野盲区,车辆仍有小概率会撞上马路牙子。
5. UI 界面与其他细节更新
全新的摄像头遮挡警告:当摄像头视线受阻时,警告提示从以往的小缩略图变成了一个全窗口视图,让驾驶员能一目了然地看清到底是哪里被遮挡了。
3. 核心技术亮点——物理世界 AI 的底层基建
其实,此次更新的最大看点在于底层架构的全面升级,为容纳参数量爆炸的端到端大模型(乃至世界模型)铺平了道路:
1. MLIR 框架重构 AI 编译器与 Runtime:端到端模型的高效“基建”
在 FSD 走向纯端到端架构(向大型 VLA 甚至世界模型演进)的过程中,神经网络的参数量呈指数级膨胀。传统的编译器往往需要针对车端硬件(HW3、HW4 的 NPU)和云端训练硬件(Dojo、H100)进行大量手动的算子优化,这成为了算法落地的巨大瓶颈。
统一编译管道:MLIR(Multi-Level Intermediate Representation)是 LLVM(Low Level Virtual Machine(底层虚拟机)) 开源项目的一部分。特斯拉采用 MLIR 从零重写 AI 引擎,意味着他们彻底摒弃了过去东拼西凑的优化工具链,建立了一套标准化的中间表示层。这套框架能自动将复杂的上层 AI 算法(如各种大参数量的 Transformer 或 MoE 结构)高效映射到底层芯片上。
算子融合与内存极致压榨:在物理世界 AI (Physical AI) 的应用中,延迟是保命指标。MLIR 能够在编译阶段进行深度的算子融合(Operator Fusion)和内存分配优化,最大程度减少了显存内数据的来回搬运。这就是为什么在这套新 Runtime 下,FSD 能在同等硬件条件榨取出20% 的反应速度提升。
算法迭代解绑:这一底层工程化突破,让算法团队彻底摆脱了硬件适配的掣肘。模型迭代速度的加快,意味着未来验证新的网络拓扑结构时,编译成本将大幅降低。
2. Vision Encoder(视觉编码器)升级:突破纯视觉感知的物理上限
在端到端系统中,Vision Encoder 是车辆的“视神经”,负责将 8 个摄像头的 2D 像素流实时压缩为包含时空信息的高维特征向量(Tokens),供后端的 Policy Network 推理决策。
隐空间 (Latent Space) 的 3D 几何理解:过去的视觉感知往往需要依赖显式的占用网络(Occupancy Network)来构建体素。而升级后的 Vision Encoder 具备了更强大的隐层表征能力,能够更原生地理解真实世界的 3D 物理结构。这让系统能极其精准地处理那些不规则、不常见的几何形态(例如伸出路面的树枝、异形施工机械、倾斜的障碍物等)。这个技术也是我们之前GTC系列文章分享到今年国内外车企也将的一个课题,例如《理想汽车下一代基座模型 Mind VLA-o1的架构和算法应用解析》讲到的理想汽车,《英伟达 Alpamayo:基于推理的自动驾驶大模型设计与量产部署全解析》中英伟达的Alpamayo。
时序特征提取 (Temporal Processing) 的增强:在雨雾、夜间等低能见度场景下,单帧图像往往存在严重的特征缺失。新编码器显著加强了时域维度的处理深度,系统不再仅依靠“看清这一瞬间”,而是通过前后多帧的连续时序变化来“脑补”和确认交通标志、车道线以及动态障碍物的轨迹,大幅提高了恶劣环境下的感知鲁棒性。
3. 全球车队学习 (Fleet Learning) ✖️ 强化学习 (RL):数据飞轮的终极形态
纯粹的“模仿学习 (Imitation Learning/行为克隆)”只能让系统逼近“优秀的人类司机”,而想要实现质变并处理长尾场景,就必须引入带有明确价值导向的强化学习。
挖掘 Hard RL Examples (困难样本):特斯拉利用其全球数百万辆搭载 HW3/HW4 的车队(基于影子模式),构建了极具规模的长尾数据自动挖掘流水线。当系统发现人类司机在复合红绿灯、大弯道紧急接管,或者车辆遇到了极度罕见的情况(Infrequent Events)时,这些高价值的“困难样本”会被自动回传并标注。
引入“主动安全奖励”对齐网络:这与大语言模型的 RLHF(人类反馈强化学习)在逻辑上异曲同工。在训练集群中,特斯拉为强化学习设定了更加严苛且具前瞻性的奖励函数(Reward Function)。
4. 写在最后:
整体来看,FSD V14.3 是一次从“应用层修补”到“底层重构”的深水区跨越。这也为全行业提供了极具参考价值的工程样本——无论是小鹏在智驾架构上的持续演进,还是理想在规划下一代VLA算法时,都需要跨越从单纯拼算力到深耕算子优化、模型蒸馏与软硬件极致协同的必经之路。
总结而言,FSD V14.3 不是一次缝缝补补的补丁,而是以 MLIR 框架为开端的一场底层算力革命。它利用 20% 的执行效率提升和更庞大的困难样本池,正在将特斯拉的智驾系统从“能开”迅速推向“好开且安全”的终极状态。
*未经准许严禁转载和摘录-获取本文参考资料方式:加入我们的知识星球可以下载公众号海量参考资料包含以上参考资料。
394
