• 正文
  • 相关推荐
申请入驻 产业图谱

英韧科技董事长吴子宁:从空转到满载,AI SSD如何把闲置算力变成「有效算力」?丨存储芯片十人谈

6小时前
235
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

AI SSD的关键不仅在更快的硬件,更在能否根据不同负载重构数据的组织与调度方式。 ”     

作者丨杨依婷 编辑丨包永刚

2025年,AI算力进入深水区。

一边是需求持续外溢:大模型训练规模仍在扩张,推理请求呈指数级增长,数据中心的投资未见降温;另一边,是一系列隐性的制约正逐渐浮出水面——算力利用率始终在低处徘徊,系统抖动频发,集群效率难以维持稳定。

行业逐渐意识到,瓶颈并不总出现在“算力”本身。很多时候,问题卡在“数据”这一环。

当计算集群规模扩大到万卡级别,任何一个环节的延迟波动,都会被放大为整体性能问题。一些云服务的宕机事件,表面上是调度算法失效,深层原因却是数据供给与计算节奏之间的错位——数据来不及被组织、搬运、分发,算力只能在空转中等待。

这让一个长期被视为基础组件的领域,重新进入核心视野:存储。

过去,存储的任务是解决“存得下”;而在AI时代,它开始决定“算得快不快”。

正是在这一背景下,“AI SSD”应运而生,几乎所有主流存储厂商,都在尝试交出自己的答卷。

但问题也随之而来——当整个行业都在做AI SSD时,什么才是真正有效的改进?存储,究竟需要为AI改变什么?

带着这些问题,我们与英韧科技董事长吴子宁博士进行了一次对话。他没有急于回答,而是先讲起了一个二十多年前的故事。

(本文作者长期关注存储行业,对周期波动与企业分化有持续追踪,欢迎添加微信 EATINGNTAE 交流探讨。)

01在技术的交叉口,选对方向很重要

技术史,并不是一条笔直向前的曲线,而更像是一连串不断被推翻、被修正、再重建的尝试。吴子宁博士用一个故事,解释了这种平衡如何被打破、又如何重建。

2001年,苹果发布iPod,那款音乐播放器采用了一项当时颇具突破性的设计——把机械硬盘缩到火柴盒大小,实现了5GB的存储容量。而在同一时期,主流MP3播放器普遍仅配备64MB或128MB的闪存

苹果首先颠覆了人们对音乐播放器的认知。吴子宁博士回忆道,“用户不再需要频繁管理音乐文件,而是可以将整个音乐库随身携带。”

这一变化迅速在产业链中引发连锁反应。多家硬盘厂商将小尺寸机械硬盘视为新的增长方向,投入大量资源进行研发。然而不久之后,另一项技术路径开始加速演进——闪存技术快速迭代,容量飞速发展。苹果随即推出基于全闪存的iPod,尽管入门容量仅为1GB,但凭借小型化和便利性,很快在市场上超越了机械硬盘版本。

很多存储公司投入大量资源研发小尺寸机械硬盘,都因为新技术的出现受到了巨大的冲击。

彼时,吴子宁博士正任职于Marvell,而Marvell正是业界最早全面投入闪存固态硬盘解决方案的公司之一。这一经历在他心中形成了一个重要判断:技术持续演进是常态,短周期内会有渐进式创新,而在更长周期内,则可能出现颠覆性变革。能否准确把握技术与市场趋势,并据此做出前瞻性决策,至关重要。

2016年创办英韧科技时,他已经观察到两个关键趋势的叠加。

“一边是数据需求在爆发,而且是长期趋势;另一边是存储介质正在从机械硬盘向固态硬盘迁移。”他说,“当需求和技术同时发生变化,就会出现一个很典型的机会窗口。”

而在AI驱动的新一轮数据浪潮之下,这一“判断能力”的重要性再次被放大——面对全新的计算范式,存储系统应当如何演进?

02为什么需要AI SSD?

据DESIGNRUSH估计,2025年实际数据量约为173.4ZB,而2026年全年数据生成量预计在230ZB至240ZB之间,到了2029年,该数字预计将达到527.5ZB。

作为IT基础设施三大核心支柱之一,存储在半导体市场中占比约为20%至30%,但在AI时代,这一“支柱”正承受前所未有的压力。

这种压力主要体现在三个方面。

第一,数据形态正在改变。传统数据通常具备明确的冷热分层:热数据驻留内存,温数据进入SSD,冷数据则归档至机械硬盘。然而在AI训练与推理过程中,数据呈现出高频交互特征——大模型训练需要持续吞吐海量数据,推理阶段涉及大量中间状态的频繁访问,而向量检索则带来高比例的小块随机读写。数据不再严格遵循既有分层结构。

第二,应用场景高度分化,基础大模型正在向行业大模型演进。银行的风控数据、车企的自动驾驶数据、医学影像系统数据,每个场景对存储的要求都不一样:有的需要超高吞吐,有的需要极低延迟,有的需要在边缘节点上实现高密度数据处理。

第三,系统容忍度显著降低。当计算集群扩展至万卡级规模时,任一环节的性能波动都可能拖慢整体训练效率。与此同时,边缘侧原本受限的内存带宽,还需匹配接近GPU级别的计算能力。存储不再只是数据的承载介质,而成为影响数据流动效率、进而决定训练与推理性能的关键因素。

在他看来,这种变化的根源,在于计算体系中心的迁移。

过去是CPU在做调度,GPU只是执行单元;但现在,在AI系统里,GPU本身开始承担调度角色。”他说,“如果数据还要经过CPU中转,就相当于在两条高速公路之间接了一座很窄的桥,这个环节会成为瓶颈。”

吴子宁博士用一个形象的比喻来说明这一变化:“一辆车即使最高速度很高,如果大部分时间处于等待状态,发动机空转,那么它的实际效率依然很低。”

在AI计算体系中,“等待”正成为日益突出的瓶颈。计算单元具备极高的算力,但数据往往滞留在存储侧——如果无法被高效调度至计算单元,就会导致算力资源闲置与浪费。

“存储不仅要完成数据的持久化,还需要具备对数据进行高效组织与调度的能力。”吴子宁博士指出,“我们已经开始探索,在存储侧引入更智能的控制机制,对数据布局与访问路径进行优化。”

这一思路指向一个明确方向:存储系统需要针对AI负载进行系统性优化。

过去几年,行业已展开多路径探索。例如,通过优化固件与FTL(Flash Translation Layer)算法,使SSD在高并发场景下保持稳定的延迟分布;通过重构主控架构,提升数据调度效率;以及借助CXL(Compute Express Link)协议扩展内存语义,使闪存在特定场景中承担部分内存功能。

这些技术路径最终汇聚为一个共同的产品方向——AI SSD,这是整个行业对同一核心问题的多元回应:当计算范式发生变化,存储体系如何协同演进?

在吴子宁博士看来,一项技术是否值得投入,可以从三个维度判断:技术合理性、商业可行性与生态兼容性。

以此衡量AI SSD,其可行性便清晰起来——

技术层面,AI负载对存储提出了传统SSD难以满足的新要求,针对性优化是解决“算力等数据”痛点的必要路径;

商业层面,AI SSD在成熟闪存与主控技术基础上演进,能够复用现有供应链,具备大规模部署的成本基础;

生态层面,它延续PCIe/NVMe等标准接口与协议,与现有计算体系保持兼容,能够被平滑接纳。

从这个角度看,AI SSD的出现具有内在必然性——它并非对现有体系的颠覆,而是在既有架构基础上,针对新型负载特征进行的系统性优化。

正如当年闪存逐步取代小尺寸机械硬盘——技术进步提供了替代能力,而应用需求则明确了替代方向。

在这一过程中,能够深入理解AI负载特征,并据此构建差异化存储方案的厂商,将更有可能在下一轮系统级重构中占据有利位置。

03先理解负载特征,再定义产品形态

2025年,这场“系统重排”已经拉开序幕。

从铠侠公布AI SSD中长期路线图,到三星、海力士、美光陆续推出针对AI场景优化的超高速颗粒产品;从FMS存储峰会上多家厂商的同台竞技,到华为在上海发布“AI SSD,加速智能经济涌现”——几乎在同一时间点上,全球主要存储厂商都在朝同一个方向发力。

当“AI SSD”成为行业共识,英韧必须回答一个更具体的问题:差异化路径何在?

在英韧内部,对这个问题的思考始于对AI负载的拆解。AI并非单一应用,而是一组差异显著的计算任务,大致可以归纳为三类典型负载形态。

第一种是训练。大模型训练的特征是持续、稳定且高带宽的数据流动,样本被反复读取、重排与迭代,这个场景对顺序吞吐能力高度敏感,但对极端微秒级延迟的要求相对次要。稳定的大规模供给,比瞬时极限性能更重要。

第二种是推理,这是变化最剧烈的部分。推理阶段的数据访问呈现高度碎片化特征,包括大量小块随机读写、KV Cache频繁交换以及向量索引调用。此时,存储从“批量搬运”转变为“实时响应”,系统性能对尾延迟高度敏感,一旦尾延迟失控,将直接影响整体服务质量。

第三种是数据归集与管理。随着模型规模扩大,数据留存、分层与生命周期管理成为刚性需求。该场景对延迟的要求相对宽松,但对容量密度与单位成本极为敏感,需要在规模与成本之间取得平衡。

这三类负载之间,并不存在一个能够同时最优覆盖的统一设计方案。

因此,英韧的策略是针对不同负载特征,设计具备差异化能力的主控架构与产品组合。

在通用训练场景中,采用TLC NAND的“洞庭-N3”更强调带宽与稳定性的平衡,顺序读取带宽在14.5GB/s以上,随机读取能力约3.4M IOPS,适合作为训练集群中的常规数据层。

针对容量敏感型场景,则引入基于QLC NAND的“洞庭-N3Q”。在更高存储密度的前提下,通过控制器与纠错机制优化,将单盘容量提升至64TB,同时维持超过14GB/s的顺序读取水平,用于降低单位容量成本。

而在对响应时间更敏感的推理侧,则采用“洞庭-N3X”这一低时延方案。该产品结合XL-Flash与SLC NAND,在随机访问下可实现约13微秒读取延迟、4微秒写入延迟,随机读取性能超过3.5M IOPS,随机写入性能可达1.6M IOPS,且具备最高100 DWPD的耐用性,更适合高并发、小请求场景。

该产品的实际表现,近期已获得第三方测试验证。

英韧的洞庭-N3X参加了ODCC AI存储实验室“面向AI推理场景KV Cache的数据存储测试项目”,SSD能支持GPU Direct Storage (GDS),采用GPU直接调度的方式,构建“以存代算”的第三级缓存。

实测数据显示:采用英韧科技AI SSD(洞庭-N3X)后,能够有效打破“内存墙”,让数据更快供给 GPU,H20平台的系统吞吐量提升约12倍,RTX 6000D平台的系统吞吐量提升约20倍。在10K输入长度下,原生架构由于需要重新计算或处理显存溢出,存在一定延迟,但采用N3X后,首Token延迟可从数秒级缩短至毫秒级。随着输入长度从100 tokens增加到100K tokens,存储压力呈线性甚至指数级增长,而输入文本越长,N3X对系统换入换出效率的提升效果越明显。

这一结果表明:当AI负载规模跨越特定阈值后,存储将从辅助角色转变为关键性能变量;而针对推理场景深度优化的AI SSD,可以显著改变系统整体效率。

在英韧看来,这三类产品的划分并非传统意义上的“高、中、低端”区隔,而是对不同数据访问模式的针对性响应,是基于负载模型推导的工程结果,而非简单的参数堆叠。

真正的挑战,在于如何在系统层面实现这些差异化能力的协同。

随着接口标准持续演进——从PCIe 4.0到5.0,并迈向即将到来的6.0——SSD不仅需要提升物理带宽能力,更需要同步增强主控的并发调度与队列管理能力。否则,底层介质性能的提升将难以转化为系统级收益。

“必须抓住每一代接口升级的窗口期。”吴子宁博士也强调,更具挑战性的部分在于内部架构的重构:在高并发场景下如何避免队列阻塞?如何有效控制尾延迟?如何在不同介质特性之间实现负载均衡

这些问题,最终都指向一个具体的性能目标。

“要把吞吐量从现在的300万IOPS,在两年后提升至1亿IOPS,这相当于接近两个数量级的跃升。”吴子宁博士进一步阐释道,“单靠更先进的芯片制程,无法支撑这一量级的性能跨越,关键在于架构层面的重构。我们需要在数据调度路径上实现更精细的优化与更高的效率,推动介质层与接口层之间的深度协同,将数据从存储介质到主机接口的整条通路压缩至最短,从而在根本上降低访问延迟。”

这些问题,构成了AI SSD主控芯片的研发关键。

04方向靠校准,路径需修正

围绕“内部架构重排”,英韧的探索正在延伸至下一代产品。

2026年,英韧计划推出PCIe Gen6的新一代产品,将融合下一代NVMe与CXL双协议,在带宽实现翻倍的同时,512B随机读取性能有望达到千万IOPS量级。

其中,CXL(Compute Express Link)尤为关键。该协议通过引入内存语义,实现高速互联,构建更大的存储池。从更广义角度看,这一方向正指向“存算一体”的演进路径——即更高效地将数据从存储侧调度至计算侧。

“这不仅是硬件问题,软件体系同样在同步演进。”吴子宁博士指出。

与此同时,英韧也在和颗粒原厂开展更深度的合作——因为无论主控多强,没有好的介质配合,一切都无从谈起。

从PCIe 3.0到5.0,再到即将到来的6.0;从TLC到QLC,再到XL-FLASH与SLC的协同;从单一的SSD主控,到NVMe与CXL双协议的融合——英韧的技术路线,始终围绕同一个核心问题展开:当数据的调度和使用方式变了,存储该如何重新设计?

对于英韧当前的产品方向,吴子宁博士在对话中表示:“大方向需要通过经验与市场反馈来校准,避免战略性错误;而在具体路径上,则必须持续迭代与修正。

这个态度,或许比任何产品参数都更能说明问题——在AI带来的新一轮“系统重排”中,没有人能预知终点。唯一能做的,是在变化中不断调整自己的位置。

(本文作者长期关注存储行业,对周期波动与企业分化有持续追踪,欢迎添加微信 EATINGNTAE 交流探讨。)

相关推荐