在 CES 2026 的聚光灯下,Amnon Shashua 教授不仅展示了 Mobileye 在汽车芯片和自动驾驶领域的统治级数据,更抛出了一枚重磅炸弹:收购 Mentee Robotics。
这不仅仅是一次商业并购,它标志着 Mobileye 正式迈入“3.0 时代”。如果说 1.0 是摄像头 ADAS,2.0 是英特尔旗下的自动驾驶扩张,那么 3.0 的核心定义就是“物理人工智能”(Physical AI)——即 AI 决策不再局限于数字比特,而是直接作用于现实世界的原子,无论是控制时速 120 公里的汽车,还是操作精密电钻的人形机器人。
本文将剥离营销话术,从底层计算架构、算法演进、商业落地三个维度,深度解析 Mobileye 本次发布会透露的关键技术趋势。
一、 算力与架构之争:拒绝“算力堆砌”,追求“有效算力”
在过去几年,车企和芯片厂商陷入了 TOPS(每秒万亿次操作)的数字军备竞赛。但在本次 CES 上,Mobileye 对此按下了暂停键,转而强调针对特定工作负载的真实延迟表现。
1. EyeQ7 vs. Orin X:实测数据的降维打击
Mobileye 展示了其 EyeQ7 芯片(预计 2027 年量产)与 Nvidia Orin X 的对比数据。Mobileye 没有比拼理论峰值,而是对比了自动驾驶最核心的两类算法负载:
卷积神经网络 (ResNet 50):EyeQ7 延迟为 0.5ms,而 Orin X 为 0.64ms。
视觉 Transformer (ViT, 900万参数):EyeQ7 延迟仅需 0.5ms,而 Orin X 高达 1.5ms。
行业解读:这意味着 Mobileye 的架构在处理现代 AI 模型(尤其是 Transformer)时效率是竞品的 3 倍。这种“专机专用”的 ASIC 路线,使得 Mobileye 能够以更低的功耗和成本实现高性能计算,这对普及型车辆(如大众、丰田的走量车型)至关重要。
2. 芯片组合拳
EyeQ6 Lite/High:这一代芯片正在横扫市场,2025 年赢得了 95% 的 RFQ(报价请求)。
Surround ADAS(环绕式 ADAS):这是 L2+ 的新常态。基于 EyeQ6 High,通过 5-6 个摄像头和雷达实现。Mobileye 透露这已获得 1900 万台的定点,预示着未来几年“全向感知”将成为标配,而非高端车专属。
二、 算法深潜:告别“漫画式”端到端,拥抱“快慢系统”
当前行业热衷于讨论“端到端”(输入像素,直接输出轨迹)。Amnon 教授直言,这种简单的端到端只是“漫画式”的构想,现实中无人敢用,因为它面临幻觉(Hallucination)和样本复杂度(Sample Complexity)两大死穴。
Mobileye 给出的答案是符合人类认知科学的“快思考与慢思考” (Fast and Slow)架构。
1. 系统拆解
快系统 (Fast):频率 10Hz。负责保命和基础驾驶。基于传统的深度学习轨迹预测,经过安全层(RSS)过滤。反应快,不产生幻觉。
慢系统 (Slow) - VLSA:频率 1-2Hz。引入视觉语言语义动作模型 (Vision Language Semantic Action)。它不直接控制方向盘,而是像一位“随行教练”一样,输出语义级的建议(Script)。
行业解读:这种架构巧妙地解决了大模型(VLM)推理慢、易产生幻觉的问题。将 VLM 作为一个高层决策者(慢系统),而将执行权交给确定性更高的快系统,是目前实现 L3/L4 最务实的技术路径。
2. ACI:自动驾驶的 AlphaGo Zero
为了解决数据长尾问题,Mobileye 推出了ACI (Artificial Community Intelligence)。
原理:类似于 AlphaGo Zero 的“自博弈”(Self-play)。在非照片级的抽象仿真环境中,利用其遍布全球的 REM 地图数据,生成数以亿计的复杂交通博弈场景。
规模:Mobileye 正在进行数十亿小时的仿真训练。
意义:这解决了“新城落地”的验证难题。去一个新城市前,先在云端跑 10 亿小时仿真,验证所有特殊路口,一夜之间完成人类司机一辈子都跑不完的里程。
三、 Robotaxi 的商业化真相:去安全员的终极战役
Mobileye 与大众汽车(及其子公司 MOIA)的合作展示了 Robotaxi 规模化的真实路径。
硬件去冗余:第一代 ID. Buzz 使用了极其豪华的传感器配置(13 摄像头 + 9 激光雷达 + 5 雷达)。但 Mobileye 明确指出,目标是在 2029 年左右实现**仅依赖摄像头和成像雷达(可能加一个前雷达)**的配置。这是将 Robotaxi 成本降至消费级水平的关键。
远程操作员的“渐进式消亡”:商业模型的死穴在于远程安全员(Tele-operator)的人力成本。Mobileye 引入 VLM(慢系统)的核心目的,就是让 AI 处理复杂长尾场景,从而将远程干预的频率降至极低,最终实现 1 人监控数千辆车,甚至完全取消。
时间表:2026 年 Q3/Q4 在美国进行无驾驶员测试;2027 年欧洲扩张;2033 年达到 10 万台规模。
四、 物理 AI 的新载体:Mentee Robotics
为什么一家做自动驾驶的公司要造人形机器人?答案在于“技术同构”。
Mentee Robotics 的机器人不仅仅是硬件创新(虽然其无肌腱的刚性连杆手部设计非常惊艳),更重要的是其软件逻辑与自动驾驶高度互通:
Sim-to-Real (仿真到现实):都在虚拟环境中训练策略,然后迁移到现实。
Real-to-Sim-to-Real (现实-仿真-现实):这是面向家庭场景的杀手级功能。用户演示一次动作(如换电池),机器人上传云端 -> 生成仿真环境 -> 强化学习训练 -> 下载策略 -> 执行任务。这解决了家庭非结构化环境无法预编程的难题。
行业解读:Mobileye 正在将其在感知、地图、云端训练和边缘计算芯片上的积累,从“车”无缝平移到“人”。如果说车是结构化环境下的物理 AI,机器人就是非结构化环境下的物理 AI。两者共享底层技术栈,将为 Mobileye 带来第二增长曲线。
结语
CES 2026 上的 Mobileye,少了一些关于算力数字的浮夸,多了一份对工程落地的敬畏与野心。
从 EyeQ7 的实效算力,到 ACI 的群体智能仿真,再到人形机器人的跨界,Mobileye 正在构建一个庞大的物理人工智能生态系统。对于行业而言,最值得关注的信号是:单纯依赖数据堆砌的时代结束了,架构创新(如快慢系统)和高效计算(如专用芯片)将成为下半场的胜负手。
参考资料以及图片
mobileye CES 2026 媒体日演讲实录 以及notebooklm生成ppt
*未经准许严禁转载和摘录-获取本文参考资料方式:加入我们的知识星球可以下载公众号海量参考资料包含以上参考资料。
569