随着AI 技术持续向场景化落地演进,云端与端侧的协同布局已成为行业主流趋势。云端 AI 以大规模集中式计算、数据整合处理为核心,依托服务器集群实现高效运算;端侧 AI 则更贴近终端应用场景,强调实时响应与便携低功耗,二者在应用逻辑与技术诉求上存在本质差异,也直接推动存储从传统介质载体向系统级智能支撑升级。

今年以来,以 OpenCLAW “龙虾” 为代表的场景化 AI 应用快速走红,这也代表着AI 行业也从 “追求技术突破” 向 “注重实际应用” 转变,,也让存储的角色与需求迎来根本性转变,传统存储模式已难以适配新一代端侧 AI 应用的实际要求。
在 3 月 27 日举办的 CFM | MemoryS 2026 闪存市场峰会期间,江波龙副总裁、企业级存储事业部总经理闫书印和江波龙副总裁、嵌入式存储事业部总经理黄强在接受与非网采访时,针对此类新兴应用带来的存储需求变革分享了自己的看法。
闫书印指出,面向 “龙虾” 这类端侧 AI 应用,存储的核心需求已发生显著改变。终端存储需要在有限空间、电池与成本约束下,平衡 AI 响应速度、使用体验与续航表现,这也成为端侧场景对存储的核心要求,具体体现在便携化、小尺寸、低功耗以及系统级协同等多个维度。
黄强在谈手机端侧AI时,对这一点的表达也非常直接。他说,过去大家更多关注“模型能不能跑”,但接下来更关注的是用户体验,“第一就是你的实时性一定要强,所以存储就必须要主动预判,而不是一个被动响应。然后你存储的效率……一定要提高,同时控制好功耗。”
正因如此,江波龙这次提出了“集成存储”的概念。端侧AI需要的不是单一标准存储,而是“系统化的集成存储”。 “我们认为整个存储的形态也会发生一些变化。以前可能很多的都是标准的一个存储设备,那目前未来我们觉得首先它要转向这种集成的,另外一个就是系统化。” 这种“系统性”也是江波龙区别于传统周期思维的地方。面对AI带来的冲击,闫书印并不认为靠某一个爆款器件就能解决问题,而是反复强调一体化创新的重要性。
集成存储——江波龙亮出端侧AI存储组合拳
这次峰会上,江波龙发布的 SPU(Storage Processing Unit,存储处理单元)。SPU基于5nm先进制程工艺打造,单盘最大容量达到128TB,搭配 iSA 存储智能体,可优化 AI 模型部署效率。它不是传统 SSD 主控的常规升级版,而是被定义为 “面向智能存储架构打造的专用处理单元”。

SPU核心具备存内无损压缩、HLC(High Level Cache)高级缓存技术两大关键能力,存内无损压缩平均压缩比达2:1,实测覆盖文本/代码/数据库等多类数据,大幅节省SSD容量和成本;还能通过HLC技术实现温冷数据下沉至SSD,节省近40% DRAM容量需求。
“我们希望能够系统提升端侧的处理能力,而不只是传统的被动存储的职能。” 闫书印表示,在传统架构里,存储更多承担的是接收命令、执行读写、维持稳定性的任务;但在端侧AI场景中,数据本身已经不再是静态的。模型参数、KV Cache、热数据、温数据、冷数据会在推理过程中不断流动、切换、调用,如果存储仍然只是一个纯被动器件,它很快就会成为系统效率的瓶颈。闫书印在采访中提到,SPU要做的正是“更多去做这种智能的调度”,包括对数据分层处理进行更优化的管理,同时支持更复杂的动态卸载和预处理场景。
除了智能的调度,SPU单盘最大容量可达 128TB,而当前主流消费级SSD容量通常止步于 8TB 左右。这也让SPU可高效益替代HDD,为客户探索eSSD方案提供了新可能,同时有望显著降低整体拥有成本。
作为SPU的大脑,同期发布的iSA存储智能体是面向端侧AI推理的智能调度引擎。针对MoE大模型参数庞大、KV Cache膨胀快、I/O延迟影响推理流畅度等问题,通过MoE专家卸载、KV Cache智能管理与智能预取算法,高效解决端侧AI推理的存储调度难题。江波龙与AMD基于锐龙AI Max+ 395处理器的智能体主机开展联合调优,实现397B超大模型本地部署,在256K超长上下文(122B)场景下,将DRAM占用降低近40%,为超大模型本地化高效部署与规模化应用提供了创新的实践方案。未来,双方将充分发挥各自技术与生态优势,持续深化在智能体领域的协同创新。


为什么需要存储智能体?端侧AI的难点,不只是模型塞不塞得进去,而是模型一旦进入长上下文、多轮交互、复杂任务流,它对内存、缓存、盘侧、I/O和功耗的压力就会迅速叠加。闫书印认为,当前无论训练还是推理,都面临“效率或者算力的浪费”,而且token成本仍然偏高,因此未来一个重要方向,就是把存储处理的分层概念做得更细。
更重要的是,iSA并非单独工作,闫书印也提到,江波龙会在PC端与AMD协同,在手机端与展锐协同,把SPU本身的智能能力和HLC的系统优化能力结合起来。这一点说明,江波龙并没有把SPU理解成一个可以脱离生态独立存在的存储芯片,而是从一开始就把它放进SoC、软件与终端应用协同优化的框架里。它要抢占的,不只是一个器件位置,而是一个系统角色。
HLC(High Level Cache)也是这次峰会上江波龙发布的重要技术。江波龙将HLC高级缓存技术与SPU、UFS深度集成,实现AI PC端+嵌入式端全端侧场景落地,有效解决端侧设备“性能与成本平衡”难题。在AI PC端,HLC技术依托SPU实现分层设计,性能层打造AI专用高速缓存区,实现大模型专家 / 键值对卸载,存储层负责操作系统与通用数据存储,通过高优先级读写、低优先级I/O调度,在优化AI体验的同时降低终端DRAM容量需求和成本。在嵌入式端,江波龙与紫光展锐联合开发,搭载紫光展锐芯片平台实测, 4GB DDR搭配HLC技术后,20款App启动响应时间仅851ms,接近6GB/8GB DDR正常配置水平;且江波龙搭载14nm制程工艺WM7200主控的 UFS 2.2产品的顺序读写和随机读写指标也超过行业主流水平,在保障流畅体验和器件使用寿命的前提下,有效降低DRAM容量需求,优化BOM成本。

除了上述提到产品或技术之外,端侧AI存储的发展还高度依托材料工程能力,散热更是其中的核心难点。想要实现更快读写、更大容量与更小封装,需在封装散热、工艺、数据保护及结构外壳四大材料体系上同步创新。

继2025年推出PCIe Gen4 mSSD之后,江波龙在此次峰会上带来新一代高速存储介质——PCIe Gen5 mSSD。该产品延续 DRAM-less 架构与 20×30mm 小巧身形,兼容 M.2 2230 标准,还可灵活拓展为 2242/2280、PSSD 等多种形态,客户无需改动原有设计即可适配,轻松实现多形态、大容量的产品创新。产品搭载联芸 1802 主控,性能全面升级:顺序读写最高达 11GB/s、10GB/s,随机读写最高 2200K/1800K IOPS,单盘最大容量支持 8TB,精准匹配 AI PC 等端侧设备对高速大容量存储的需求。
针对小体积高性能带来的散热难题,江波龙为这款mSSD量身打造了专属高效散热方案,首次将 VC 相变液冷技术应用其中,通过均热器、导热胶、石墨烯散热片、VC 均热板等多重组件,实现芯片热量快速传导散发。实测数据显示,该方案可将 11GB/s 峰值性能维持时长提升至 181 秒,连续读取容量达 1991GB,性能持久度是常规方案的近 2.5 倍,既能满足 AI PC KV Cache 高负载场景下的 Gen5 高速吞吐需求,又能适配超薄机身设计,兼顾性能与产品形态。


此外,依托中国工程师自研优势,江波龙还完成SiP(System in Package,系统级封装)全流程设计,可将 SoC、eMMC/UFS、LPDDR、WiFi、Bluetooth、NFC等多类芯片集成于一颗封装内。针对AI 眼镜、智能手表、POS机等对空间体积、机身轻薄度、散热控制有着严苛要求的终端产品,这一方案能够显著缩小硬件尺寸、优化结构布局及散热表现,是极具竞争力的优选解决方案。同时,江波龙将 SiP 技术优势转化为海外制造端的实际价值,赋能海外制造。

不靠“熬周期”,江波龙如何卡位端侧AI?
面对产业周期的上下波动,江波龙并没有把重心放在“熬周期”上,而是更多通过产品创新去重新参与客户下一代终端的设计,帮客户创造价值。
通过两位江波龙高管的分享,可以看到江波龙对端侧AI的判断:云端AI聚焦面向GPU的专业化存储服务,而端侧AI则更看重高性能容量、SiP系统级集成封装和定制化服务,传统标准存储的边界正在快速显现。基于这样的判断,江波龙将自己的方向明确概括为“端侧AI集成存储解决方案”,并进一步提出覆盖芯片设计、硬件设计、固件软件、封装工艺、工业设计、自动化测试、材料工程、生产制造等环节的全链路Foundry模式。而闫书印更是强调这种全链路定制服务Foundry模式是江波龙在端侧AI领域的核心竞争力。这种竞争力可以拆解为:硬件设计能力、可靠性设计能力、软件和固件设计能力、高端封测制造能力、工业设计能力,以及材料工程能力。这个表述其实已经把“产品竞争”和“系统位置竞争”区分开了:前者是谁卖得更多,后者是谁能成为客户做下一代AI终端时不可绕开的协同方。

一句话总结,在端侧AI时代,存储竞争不再只是“谁的容量更大、谁的颗粒更便宜”,而是谁能把存储真正做成一个系统级能力。针对“集成存储”的概念,江波龙给出的答案是系统化的产品与技术组合。“比如我们基于SPU职能调度,结合HLC解决方案,以及先进封装测试能力,就是在原有的controller,系统软件和封装测试基础上全都拉通整合的一体化的创新。这样才能给客户提供真正有价值的创新产品。” 闫书印表示,过去行业更多比拼容量、价格,未来则会更强调主控、软件、封装、系统协同和场景适配能力。这也是为什么江波龙在此次CFM | MemoryS 2026上把主题定为“集成存储 探索端侧AI”。
最后,江波龙在采访中反复提到了生态协同,无论是PC端与AMD的配合,还是手机端与展锐的协同,背后都是同一个判断:AI时代的存储创新,最终还是要放到更大的生态系统里才能成立。这也意味着,江波龙想提前卡住的位置,不只是技术位,也是一种生态位。当然,理想是美好的,但现实中仍然会遇到各种各样的挑战。集成存储方案的竞争也远比过去单点的产品竞争要更加复杂,但也正因为难度高和复杂,能够给出系统级答案的厂商,才有机会从传统器件供应商,变成端侧AI时代更难被替代的方案参与者。
来源: 与非网,作者: 李坚,原文链接: https://www.eefocus.com/article/1984536.html
417
