AI硬件竞争进入下半场,系统底座之争
它总被提起。也总被看好。可真到商业落地时,总感觉差一点。
和x86、Arm这些已经在PC、手机、服务器里建立起庞大生态的成熟体系相比,RISC-V长期更像一个“有潜力的后来者”——开源、开放、可扩展,听上去什么都好,但一到产业深水区,大家最关心的还是那几个现实问题:性能够不够?生态行不行?软件能不能接住?真到了复杂系统里,安全和认证怎么办?
但这一次,随着AI、特别是具身智能产业的爆发,风向确实有点变了。过去,市场更看重谁的通用性能更强、谁的生态更成熟;现在,问题变成了:当AI开始从屏幕里的问答工具,变成会感知、会决策、还能控制和执行的现实系统,什么样的芯片底座,才更适合下一代机器人、边缘设备、智能家居和工业终端?
这也是在近日举行的,由湾芯展/深芯盟主办的这场“RISC-V+AI赋能具身智能新纪元”产业论坛上讨论的主题——AI硬件的竞争,正在从“拼单颗芯片”,转向“拼系统底座”的话语权。
2025年,具身智能首次被写入政府工作报告;到了2026年,具身智能再次被明确提及。3月5日,在2026年政府工作报告时提出,要培育发展未来能源、量子科技、具身智能、脑机接口、6G等未来产业。与此同时,3月2日,银河通用宣布完成25亿元新一轮融资,国家人工智能产业基金等机构入局;更早前,银河通用还曾作为指定具身大模型机器人亮相2026年央视春晚。
这些信号叠加在一起说明一件事:具身智能已经不是实验室概念,而是在进入政策、资本和产业链共同推动的新阶段。
当具身智能开始升温,底层芯片架构的问题就绕不过去。因为具身智能和纯大语言模型不一样。聊天机器人卡一点、慢一点,用户最多等等;但一个机器人、家庭助理或者工业系统,如果感知、判断、执行这条链路慢了,代价就不只是体验下降,而可能变成误操作、碰撞甚至现实风险。也正因此,本次论坛把RISC-V与AI的融合,概括为破解具身智能“功耗墙”“算力墙”“生态墙”的关键钥匙之一。
当旧规则开始松动,新架构自然就有了重新被估值的可能。

硬实时性成关键,具身智能为何把RISC-V重新推上牌桌
具身智能是把RISC-V重新推上牌桌的那只手。
蓝芯算力(深圳)科技有限公司方案架构师王睿明认为,具身智能不是单纯的软件或模型,而是“拥有感知系统加决策系统,同时能够控制和执行”的设备,能够在真实物理世界中完成具体操作。他认为,具身智能近几年快速升温,核心仍然是大模型的带动;当大模型规模大到一定程度以后,其输出结果“超出了我们很多的认知”,具身智能才真正找到了新的突破点。
王睿明举了一个特别形象的例子:如果一支激光笔掉落,只需要不到一秒就会落地,而系统却要用一秒钟去感知、分析和作出决策,那么现实世界不会停下来等它计算完。对聊天机器人来说,慢一点只是等待问题;可对具身智能系统来说,感知、决策、执行链路中的任何迟滞,都可能直接变成跌落、误操作甚至碰撞风险。也因此,在王睿明看来,“硬实时性”在CPU控制单元中“是非常重要的”。这也是RISC-V在具身智能语境下真正值得被重估的地方。

王睿明在会上专门拿RISC-V与x86、Arm做比较。他的核心观点是,RISC-V在控制链路上的硬实时性具备先天优势,更适合需要快速响应的嵌入式控制环节。按他的表述,x86“天生不是做这种嵌入式”;而Arm虽然也属RISC体系,但在乱序执行带来的实时性问题上,用户可优化空间有限。相比之下,RISC-V可以从固件启动阶段对相关机制进行控制,例如关闭乱序,以换取更直接、更可预测的响应。看上去,这可能只是“几个微秒”的差异;但对具身系统来说,最怕的从来不是平均性能差一点,而是最坏情况不可控。谁能给出更明确的响应边界,谁就更有资格成为机器人的“小脑”和控制底座。

蓝芯算力想做的,是一整套具身智能底座。王睿明在会上介绍了蓝芯算力的高性能RISC-V CPU,这颗芯片采用异构设计,包括32核高频处理器、16核高能效处理器,并集成AI专线加速引擎,可提供75TOPS AI算力,同时支持CXL 2.0协议。王睿明把这些能力分别映射到具身智能的几项痛点:用RISC-V的可控性和硬实时能力应对控制问题,用异构与AI加速支撑大模型推理,用CXL 2.0应对模型膨胀带来的内存压力,再用国密和可信计算能力补上安全底座。

据介绍,蓝芯算力不是只交付一颗裸芯片,而是连同开发板、服务器、机柜级OS适配,以及麒麟、统信、欧拉等操作系统基础适配一起推进,同时还对编译工具、开源库和中间件做了优化。王睿明也提到,其主芯片、加速芯片和memory controller被放在同一个SoC里,目的就是减少大数据搬运过程、减少一到两次内存拷贝,从而让大模型推理速度更快。
从GPU、CPU到DSP,RISC-V的AI突破口
隼瞻科技(广州)有限公司NPU事业部高级VP Kevin Xu表示,到了2026年,大语言模型推理仍主要落在GPU上,不是因为GPU天然最优,而是因为它仍然是目前“最完整”的通用实现路径。Kevin Xu提到,AI模型种类极其繁杂,公开论文中出现过的AI算子多达两千多种,当模型类型和算子组合高度多样化时,通用架构首先要解决的是“能不能全都支持”,而不是功耗最优或效率最优。这也是为什么,今天很多人都在喊“新架构”“新范式”,但真正落地时,GPU还是最稳。
Kevin Xu还提到,大模型时代真正的瓶颈,越来越不像“算力不够”,反而更像“数据流动管不好”。以Transformer算法为例,难点往往不是单个算子,而是海量参数和中间数据在不同时间、不同顺序下如何流动、如何复用、如何调度。今天GPU之所以还能扛住,很大程度上就是因为它先用高带宽存储把问题兜住,再靠运行时调度去解决。甚至用Kevin Xu的话说,GPU比拼的“不是优点,而是完整性”。
换句话说,未来不会有一颗芯片、一个架构、一个软件栈通吃所有场景。 无论是面向通用推理、边缘部署,还是针对特定模型做深度定制,本质上都在做取舍。谁解决什么问题,谁放弃什么能力,谁服务什么场景,必须说清楚。
“RISC-V更现实的突破口,可能不是通用CPU,而是DSP。”芯昇科技有限公司市场总监魏伟认为,RISC-V的优势是“自由和开放”,但在通用计算主体上,与传统主流架构相比,“无论是在现在的性能还是在生态上”都还有差距;真正更有希望形成优势的,是DSP这类专用领域。过去两年,行业的注意力几乎都被GPU、NPU和大模型芯片吸走了,很多人容易忽略一个事实:在真实系统里,依然有大量任务并不适合完全交给通用计算单元。

作为“中国移动集团旗下唯一的芯片设计公司”,芯昇科技延续自更早期的集成电路设计中心,并在独立运营后继续将RISC-V作为核心方向推进。魏伟在会上明确表示,团队从创立开始,就把RISC-V确定为核心架构,用来搭建基于RISC-V的国产化芯片科创体系。他认为,在高定制化、强场景化、对功耗和面积敏感的环节,恰恰是RISC-V芯片的切入点。围绕这一点,魏伟给出的核心方案是“RISC-V+AI双擎驱动”,用专用矢量DSP架构切入高性能信号处理和边缘AI计算。他提到,现阶段RISC-V在高性能实时信号数据领域,仍缺乏成熟且高性能的方案,现有方案配置能力和扩展性有限,较难满足5G、6G、高端音视频和端AI需求,因此团队试图用一套专用架构去“填补这个空白”。
魏伟没有把AI和DSP拆开讲,而是试图把两者放进同一条技术演进路径中。他说,这套架构定位为超低功耗、高性能的专用矢量加速器内核,希望通过一套架构,覆盖从微瓦级到数十瓦级的全算力需求,打破传统IP按场景切割的壁垒。
魏伟在会上举了不少非常具体的例子。通信链路中的基带处理、音频里的回声消除和降噪、光模块里的高速信号处理、端侧设备中的低功耗推理和前处理,都还需要高效率、强确定性、面积和功耗更可控的专用信号处理架构。
例如在通信领域,魏伟介绍面向5G场景的DSP产品时提到,某款产品矢量计算宽度为1024比特,并行位宽256,在28纳米工艺下工程面积约0.35平方毫米,功耗在15到20毫瓦;相比传统方案,性能可以达到六倍,代码量可减少60%到80%,以支持无线芯片算法快速迭代、缩短上市时间、降低流片失败风险。
在音频方向,他提到方案支持高效定点系列指令、定点IR计算和定点非线性计算,纯定点架构能把MAC利用率从60%提升到90%,并可用于AI MCU音频SoC,服务耳机、玩具、智能车载音视频设备等场景。
而在光模块方向,魏伟更是直接指出,光模块市场增长很快,核心DSP成本“占到60%”,且这部分“基本上不断地被国外垄断”,因此国产替代空间明显。
开源不等于安全,RISC-V迎来真正的挑战

值得一提的是,RISC-V能不能进深水区,安全是绕不过去的硬门槛。
“开源并不一定代表自主可控,也并不代表比较安全。” 深圳市纽创信安科技开发有限公司副总经理胡逸众指出,RISC-V作为开源指令集,确实让上层规范更透明,但真正的芯片实现层,依然会涉及不同来源的实现、第三方IP以及潜在安全隐患。决定芯片能不能可信的,不是指令集是否开放,而是实现细节、IP构成、安全边界、生命周期管理以及能否通过认证。尤其在关键基础设施领域,芯片一旦装进去,往往要运行很多年,所以不仅要考虑传统网络安全,还必须考虑物理攻击和逻辑漏洞,而且这些问题都要在芯片设计阶段就纳入考量。
胡逸众回顾,过去安全更多以独立小芯片形式存在,比如银行卡、身份证、U盾,核心需求是密钥存储和密码运算;可现在,CPU、GPU、SSD以及通信与控制类芯片,在设计时都必须把系统软件、核心环境、远程升级和安全放在一起考虑。安全已经不再只是“加个模块”,而是整个SoC架构的一部分。
胡逸众举了两个特别直观的风险:一个是侧信道分析,攻击者可以通过芯片功耗、电磁等信号变化反推出密钥;另一个是故障注入,可能让攻击者跳过安全启动环节,控制后续加载的软件。更关键的是,这类问题如果等芯片出来以后才发现,“软件它也没有办法去修补”。所以,胡逸众提出的最佳实践是,在芯片设计阶段就建立“安全边界”,也就是嵌入式安全模块,把它做成SoC内部的“安全保险柜”,承担不可篡改的信任根、密钥生命周期管理、数据隔离和密码运算等职责。
说到底,如果RISC-V越想进AI、车规、服务器、具身智能这些深水区,安全就越不是加分项,而是入场券。

“小龙虾”落地RISC-V:谁在补齐软件生态短板?
在会议上,广州星鸿起源科技有限公司总经理 CEO连志安给出了一个很典型的产业视角。
过去行业讲RISC-V,最喜欢强调的是“免授权”“自主可控”;但在AI和具身智能时代,它真正吸引人的地方,反而是够灵活。因为机器人、边缘AI、智能家居、工业控制这些场景,需求都特别碎,功耗、面积、实时性、连接、推理、控制,几乎每个项目的组合都不一样。这个时候,一套可以裁剪、可以扩展、可以围绕具体场景快速调的架构,价值自然就上来了。

连志安在会上特别强调了RISC-V在低延迟响应、精确中断处理、原子操作和确定性执行方面的优势,认为它能满足航空、汽车等对实时性要求较高的场景,同时还提到单芯片上可同时运行关键安全任务和非关键任务。

如果只看架构层面,RISC-V的故事早就讲过很多遍了。可真正决定它能不能进入AI主战场的,恰恰不是架构本身,而是软件底座。AI时代的软件生态门槛,比很多人想象得高得多。没有发行版、没有编译链、没有依赖库、没有框架适配,芯片再好,也只能停在实验室。
红帽首席软件工程师傅炜提到,红帽团队目前正以“完全开源”的方式推进开发,持续编译Fedora、维护镜像,并尽量为市面上能买到的开发板做适配;部分developer preview和仓库内容已经可下载,现阶段可以运行在特定开发板上,今年还会继续推进更完整版本的编译与适配。
傅炜提到一句非常关键的话:“不管是AI还是端侧,都依赖服务器级别的软件生态”,“你需要把底层的软件都已经编译完成了,才能够在上面跑小龙虾”。
据介绍,红帽团队从去年开始持续把AI软件栈往RISC-V上迁移,并在既有基础上移植AMD开源软件框架。红帽早期推动的一些AI软件栈已经被搬到RISC-V环境中,部分工具和应用实现了初步运行;近期火热的“小龙虾”3.8版本也已经直接跑在Fedora on RISC-V发行版上。

总结:RISC-V能否借AI重回牌桌?
通过上述业界专家的分析,我们大概可以归纳出AI+具身智能时代,RISC-V的变化趋势:
第一,AI硬件的竞争已经从“芯片能力竞争”转向“系统定义竞争”。
未来的重要问题,不是谁有一颗更强的通用处理器,而是谁能把CPU、NPU、DSP、安全模块、软件栈和工具链围绕具体场景高效组合。
第二,RISC-V真正的机会,不在旧赛道里硬碰硬,而在新赛道里争定义权。
它未必先赢在通用CPU市场,却可能先在DSP、边缘AI、具身智能控制、低功耗系统和安全可信链路这些地方建立优势。
第三,决定RISC-V能不能走远的,最终不是指令集,而是生态工程。
软件发行版、编译链、AI框架适配、upstream能力、开发板、参考设计、开源社区、系统安全、认证体系、供应链协同,这些缺一不可。
所以,回到最开始的那个问题:AI+具身智能时代,RISC-V要“翻身”了?
更准确的答案也许是:AI和具身智能,确实给了RISC-V一次重新上桌的机会。 但要说赢得胜利,还为时尚早。因为这场仗,才刚刚开始。
来源: 与非网,作者: 李坚,原文链接: https://www.eefocus.com/article/1969824.html
970