• 正文
  • 相关推荐
申请入驻 产业图谱

王晓刚携大晓机器人出列:发布具身研发新范式,让机器人真正理解物理世界

2小时前
100
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

作者 | 王凌方,编辑 | 章涟漪

当机器人不再执着于模仿人类形态,而是真正理解物理世界运行逻辑,具身智能便迎来了从“能行动”到“会思考”的质变。

大晓机器人正在朝着这个方向探索前行。

2025年12月18日,大晓机器人在上海西岸智塔正式亮相。该公司由商汤科技联合创始人王晓刚担任董事长,澳大利亚科学院院士、京东探索研究院创始院长、优必选前人工智能首席科学家陶大程出任首席科学家。

发布会上,大晓机器人系统发布了以“以人为中心”为理念的三大核心成果:ACE具身研发范式、开源商业双轨并行的开悟世界模型3.0(Kairos3.0),以及适配多场景的具身超级大脑模组A1。
由此,大晓构建起覆盖“数据‑模型‑硬件”的全链条产业闭环,旨在推动具身智能走出实验室、落地千行百业,真正实现从“技术表演”到“实用产品”的关键跨越。

01、范式革新:以人为中心,构建跨本体的世界认知

具身智能的瓶颈从来不在硬件,而在于对世界的理解。

传统“以机器为中心”的研发范式,要么通过真机遥操,导致数据采集成本高昂、智能僵化绑定特定硬件;要么依赖纯视觉学习让机器盲目模仿,却因缺乏物理世界认知而陷入“现实鸿沟”。这两种路径都无法突破规模化、通用化的发展障碍。

为打破瓶颈,大晓机器人提出“以人为中心(Human-centric)”的ACE具身研发范式,将人类与物理世界的互动规律作为核心研究起点。

这一范式的底层思维,是深度融合世界三大本质——物理规律、人类行为与真机动作,打造出首个开源且商业应用的开悟世界模型3.0(Kairos3.0),为机器人建立起统一的、跨本体的世界认知。

作为“多模态理解—生成—预测”一体化的世界模型,开悟3.0具备三大核心能力,让机器从“会模仿”走向“会思考”。

其一,精准认知物理规律,能够理解重力、压力等底层运行机制。例如,在演示的“打开水龙头接水”等任务中,实现水杯精准定位、水面平稳上升,完全符合现实物理逻辑。

其二,建立因果思维链。面对“用积木拼搭ACElogo”等复杂任务,能规划出“先拼A、再拼C、最后拼E”的合理步骤,实现有序高效的任务执行。

其三,强大的预测与生成能力。可生成长时动态交互场景,支持场景元素可控编辑,更能基于世界知识的共享与迁移,实现跨本体一键生成,让不同形态的机器人都能完成同一任务。

“我们希望通过世界模型让机器人理解物理世界的规律和人类行为的因果一致性,这种方式才是具身智能最本质的发展路径。”大晓机器人董事长王晓刚表示,开悟3.0的开源将极大降低行业开发门槛,推动各类轻量化、定制化具身智能产品快速涌现。

根据发布会上的介绍,目前该模型已与沐曦股份、壁仞科技、中科曙光等多款国产芯片完成适配,核心算子覆盖率提升75%,整体性能达到国际顶尖芯片水平。

02、数据革命:环境式采集,筑牢认知世界的根基

智能的进化离不开数据支撑,具身智能时代对数据的需求更是呈现指数级增长。

在王晓刚看来,特斯拉FSD V14每日训练量相当于人类驾驶员400万小时的驾驶经验,而当前具身智能领域的真机数据量级仅为10万小时,数据缺口成为行业发展的核心痛点。

解决这一问题,需要全新的数据采集范式。大晓机器人给出的答案是:环境式数据采集,其核心逻辑是:人类的日常生活本身就是最丰富的天然数据环境,通过采集人类在真实场景中的自然行为,高效获取“人—物—场”的全要素交互数据。

这种采集方式无需专门的采集员和实验室,工作人员在正常工作生活中佩戴设备即可完成数据收集,如同特斯拉通过量产车辆收集驾驶数据一般,实现规模化复制与高效积累。

为实现全要素覆盖,环境式数采整合了第一视角与第三视角视频、力触觉信息、运动轨迹、音频等多模态数据,构建起基于物理基础的3D资产库。这些数据不仅包含物品的几何、纹理信息,更精准捕捉了材质密度、受力情况、运动学关系等关键属性,为机器人认知世界提供了完整的“启蒙教材”。

通过时序一致性对齐、交互动态轨迹预测建模与物理正确性仿真校正,采集到的原始数据被转化为可直接用于模型训练的高质量数据,实现了从数据采集到应用的全链路打通。

相较于传统数据采集方案,环境式数采具备四大核心优势:数据维度更全面,覆盖10个视角、8种模态、5大类物品属性;任务覆盖更长程,支持分钟级、数百种原子动作的复杂任务;交互精度更高,达到亚像素级标准,可精准追踪人手精细化操作;采集效率更具规模化,能快速实现从十万小时到千万小时的海量数据积累。

据介绍,在即时零售仓储场景中,该方案已实现数万种SKU全覆盖,完成仓储分拣与打包全流程的数据采集;在居家场景中,也成功捕捉到洗碗、叠衣服等各类生活行为,为具身智能构建起源源不断的“数据流”。

03、硬件赋能:超级大脑A1,加速场景商业化落地

强大的世界模型需要可靠的硬件载体才能释放价值。

当前机器人行业普遍存在感知范围窄、依赖高精地图、交互能力弱等痛点,限制了商业化落地进程。为此,大晓机器人推出具身超级大脑模组A1,以“一脑多形”的核心优势,为机器人装上真正的“行动中枢”。

具身超级大脑模组A1的核心能力源于领先的纯视觉无图端到端VLA模型架构,无需预采高精地图即可适应复杂、动态、陌生环境。搭载该模组的机器人能实现动态环境下鲁棒、安全、合理的路径生成,自主应对施工绕行、窄路通行、动态行人避让等复杂场景,真正实现“自主行动”。

与行业同类产品相比,A1模组通过整合Insta360全景感知方案,实现360度全场景覆盖,解决了传统机器人跟随范围有限、视野狭窄的问题,让机器狗在任何位置都能精准跟随用户。

在交互能力上,A1模组具备强大的云端智能交互能力,依托云端模型平台实时解析自然语言指令与图像语义的意图关系,生成可执行的中间指令,再由底层控制器精确执行。

这使得机器人不仅能完成自主巡检、避障等基础任务,更能根据自然语言指令精准完成复杂任务,如在巡逻中发现违章停车后,自主拍照、回传并上报异常。

同时,A1模组与商汤方舟通用视觉平台深度打通,集成了安防、能源、交通、文旅等10多个行业的150多种智能化应用,实现了“移动具身智能+通用视觉平台”的联合。“我们做A1模组的出发点是满足场景需求,现有硬件存在很多缺陷,只有从底层重构才能突破瓶颈。”王晓刚解释道。

A1模组采用工业级设计标准,具备IP66防护等级,拥有抗电磁干扰、宽温适应等能力,可在粉尘、雨水等复杂工况下长期稳定工作。目前,该模组已适配智元、云深处、宇树等主流四足机器人本体,真正实现“一脑多形、快速部署”,为安防巡检、城市治理、能源运维等场景提供了可靠的行业级解决方案。

具身智能的发展不是单点突破的游戏,而是全产业链协同演进的系统工程。大晓机器人深谙生态的重要性,以开放共赢的姿态,联合具身厂商、芯片企业、硬件供应商、云服务商、数据厂商等多领域伙伴,构建起全链路自主可控的具身智能生态体系。

从范式革新到数据革命,从硬件赋能到生态共建,大晓机器人正以“以人为中心”的核心理念,重新定义具身智能的发展路径。

未来,随着开悟世界模型的持续迭代、A1模组的场景深化以及生态体系的不断完善,短期(1-2年),大晓机器人将推动四足机器人,在闪购仓、前置仓等场景规模化落地,目标十万级规模;中期(3-5年),聚焦前置仓等标准化商业场景;家庭场景为远期目标。

 

相关推荐