VLA

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

VLA,vision language action。VLA模型是在 VLM 基础上利用机器人或者汽车运动轨迹数据,进一步训练现有的 VLM,以输出可用于机器人或者汽车控制的文本编码动作。

VLA,vision language action。VLA模型是在 VLM 基础上利用机器人或者汽车运动轨迹数据,进一步训练现有的 VLM,以输出可用于机器人或者汽车控制的文本编码动作。收起

查看更多
  • 刚刚,又一家百亿估值独角兽宣布完成股改
    智平方(深圳)科技股份有限公司已完成股份制改造并更名为智平方(深圳)科技股份有限公司,标志着该公司迈向二级市场的关键一步。作为一家成立于2023年的AGI原生通用智能机器人企业,智平方凭借其端到端VLA技术路线和具身大模型GOVLA,获得了资本市场的高度认可,并迅速实现了商业化突破。公司已进入多个行业场景,且自有产线已具备年产千台能力。截至2026年2月,智平方宣布完成B轮系列融资,规模超10亿元人民币,公司估值突破百亿,成为深圳2026年首个新晋百亿估值具身智能独角兽。
    刚刚,又一家百亿估值独角兽宣布完成股改
  • 独家丨长城汽车智驾自研加速前进,今年上车,预计采用VLA方案
    长城汽车计划今年推出自研智驾方案,并预计采用VLA方案。尽管目前主要依赖于与方案商的合作,但长城一直在寻求自主研发的道路。随着与蔚来、小鹏等新势力厂商在同一时间窗口内实现自研VLA上车,长城的自研实力有望重返第一阵营。此外,长城汽车已经建立了九州超算中心,为大模型产品研发提供算力支持,并在美国硅谷筹备建立自动驾驶研发中心,以吸引顶尖技术人才。
    349
    04/03 10:04
    独家丨长城汽车智驾自研加速前进,今年上车,预计采用VLA方案
  • 英伟达 Alpamayo:基于推理的自动驾驶大模型设计与量产部署全解析
    英伟达在GTC 2026上介绍了其开源的Alpamayo VLA模型,这是一个100亿参数的端到端、基于推理的视觉语言动作模型。Alpamayo通过多阶段训练流程,包括通用推理、轨迹预训练、监督微调和强化学习,提升了模型的推理能力和准确性。此外,Alpamayo还解决了具身不一致和前沿探索等问题。在量产部署方面,英伟达提出了多任务产品功能和模式专家架构,以及生产级别的数据流水线和实时部署技术,确保模型能够在真实车辆环境中高效运行。最新发布的Alpamayo 1.5模型增加了导航和语言对话控制辅助驾驶等功能,进一步提升了其灵活性和可控性。
    643
    03/27 10:00
    英伟达 Alpamayo:基于推理的自动驾驶大模型设计与量产部署全解析
  • 理想MindVLA-o1让自动驾驶更像人?
    理想汽车发布MindVLA-o1,其核心逻辑是通过统一的视觉-语言-动作模型,模拟人类司机的驾驶逻辑,实现从“看见路”、“理解路”到“推演下一秒”的转变。MindVLA-o1不仅提升了三维空间理解和多模态思考能力,还在动作生成上进行了优化,使其更加平稳和可控。此外,MindVLA-o1采用了闭环强化学习和软硬件协同设计,确保模型能够适应实际驾驶场景。
    理想MindVLA-o1让自动驾驶更像人?
  • 理想亮牌:VLA,是物理AI时代的入场券
    理想在GTC大会发布了下一代自动驾驶架构MindVLA-o1,旨在加速物理AI的发展,特别是自动驾驶领域。MindVLA-o1解决了VLA架构的主要问题,如3D空间、语言思考和行为对齐效率不足、长尾场景处理困难和高计算成本。该架构不仅提升了自动驾驶性能,还展示了其在机器人领域的潜力。理想希望通过这一架构推动物理AI的全面进步,最终实现“硅基人”的愿景。