继 2025 年底和 2026 年初相继拿下超 5 亿元 Pre-A 轮融资后,上海昉擎科技又在 2026 年 3 月官宣完成10 亿元 Pre-A3 轮融资,蔚来资本、国开科创、三七互娱等 8 家机构联合注资,多维资本担任独家财务顾问。短短三个月内两次获得资本青睐,让这家聚焦 “解耦式 AI 计算架构” 的创业公司,成为国产 AI 算力赛道的新焦点。资本加码NPU,单笔融资破5亿
昉擎科技成立于 2022 年,总部位于上海浦东新区,从诞生之初就瞄准大模型推理的效率痛点。2025 年 12 月,公司刚完成 Pre-A 轮融资,高瓴创投、京东科技、临港科创投等知名机构率先入局,金额超 5 亿元;不到三个月,新一轮 10 亿元融资迅速敲定,蔚来资本、钧山资本、国开科创等产业与财务资本再度集结。
资本的密集加注,本质是对其核心技术方向的押注。
不同于传统 AI 芯片 “堆算力” 的思路,昉擎科技选择了一条更底层的路径:把 Transformer 模型里的 “注意力机制(Attention)” 和 “前馈神经网络(FNN)” 拆成两个独立模块,分别交给最适合的硬件去处理,而不是像过去那样把两者绑在同一层里 “挤资源”。
现在的大模型越做越大,推理时却常常面临 “算力吃紧、功耗居高不下” 的问题 —— 传统架构里,Attention 和 FNN 挤在一层,硬件资源没法精准分配,利用率上不去,电费和延迟却蹭蹭涨。
昉擎科技的解法很直接:解耦。把两个模块拆开后,各自匹配最优的硬件架构做分布式计算,相当于让 “擅长注意力计算的硬件” 和 “擅长前馈运算的硬件” 各司其职,不用再互相迁就。按照公司测算,这种架构有望把算力利用率提升超 50%,同时把功耗降低25%-30%,从根上解决大模型推理的 “效率焦虑”。
这种 “全球首创” 的技术思路,被业内看作是打破当前 GPU 主导格局的关键突破口 —— 不用靠堆芯片数量,而是靠架构创新,就能让 AI 算力更高效、更便宜。
能让资本如此笃定,离不开昉擎科技的核心团队,尤其是掌舵人梁军。这位拥有 20 余年芯片研发经验的老兵,是业内公认的 “芯片架构师”:
早年在华为海思担任总架构师,主导过麒麟 SOC 芯片的研发,亲手打下国产手机芯片的核心竞争力;后来加入寒武纪任 CTO,推出了国内首款 7nm AI 训练芯片思元 290,在 AI 芯片领域积累了深厚的工程化经验;2024 年 8 月,梁军正式加入昉擎科技,出任 CEO、法定代表人和实控人,带着团队踏上了技术创业的新征程。
有这样一位 “既懂技术又懂产业” 的老兵带队,昉擎科技的技术落地路径也更清晰 —— 从架构创新到芯片流片,再到商业化落地,每一步都有成熟的经验可依。
在昉擎科技看来,这次融资不仅是资金的注入,更是产业对 “底层架构创新” 的认可。想象未来昉擎科技会继续以技术为核心,尝试改变现有的 AI 硬件设计逻辑,为国产 AI 算力生态的多元化发展,注入一股新的活力。
声明:本文仅为信息交流之用,不构成任何投资建议,股市有风险,投资需谨慎。
418