SK海力士(股价76.7万韩元,下跌1.2万韩元,涨幅1.59%)宣布,其新一代高带宽内存(HBM)——16层HBM4,与上一代产品(8层HBM3E)相比,AI推理性能最高可提升两倍。预计这将通过提升带宽和容量,同时改变AI服务的速度和成本结构。
根据SK海力士1月25日发布的技术分析,与8层HBM3E相比,16层HBM4可将AI推理系统的整体吞吐量提升至2.4倍。相比12层HBM4的1.8倍性能提升,16层HBM4的性能提升幅度高达33%。
SK海力士在本月初于拉斯维加斯举行的全球最大IT及消费电子展CES 2026上发布了其“16层HBM4 48GB(千兆字节)”产品。这款产品是HBM4 12层36GB的升级版,目前正根据客户需求进行生产。12层HBM4产品已于去年9月完成量产。
16层HBM4的优势在于其能够同时提升带宽和容量。12层HBM4率先实现了超过2TB/s的带宽,而16层HBM4的带宽则高达2.75TB/s。带宽指的是单个HBM封装每秒可处理的数据总量。
此外,堆叠层数从12层增加到16层,也使单层容量提升至约48GB。这种组合直接影响人工智能推理过程中重复数据移动和缓存(临时存储)访问的快速稳定处理。
实际性能提升已清晰体现在人工智能服务的运行指标中。16层HBM4配置显著降低了人工智能推理延迟。SK海力士的实验表明,随着HBM带宽的增加,每个用户的响应时间(TPOT)也成比例增加。
容量扩展效应同样重要。充足的HBM容量可以同时处理更多请求,从而降低延迟,并减少运行任务被中断的可能性。SK海力士解释说,16层HBM4在大规模并发请求环境下同时提升了推理稳定性和处理效率。随着人工智能服务日趋复杂,这种容量效应将成为决定系统整体性能的关键因素。
人工智能服务的变化也进一步提升了16层HBM4的价值。近期人工智能市场正迅速从简单的问答转向“推理模型”和“人工智能代理”,这些模型和代理需要维护长期上下文信息并执行多步骤决策。当内存使用率高而带宽和容量不足时,性能会立即下降。16层HBM4内存通过缓解这种结构性负担,被认为是一种更适合下一代人工智能服务的内存配置。
与上一代HBM相比,HBM4每秒可处理更多数据,这意味着在相同的GPU(图形处理单元)资源下可以处理更多用户请求。对于人工智能推理服务提供商而言,这意味着更低的单用户成本。此外,性能的提升还能降低功耗并消除不必要的重复计算成本。
SK海力士表示:“HBM4不仅仅是内存升级,它更是人工智能业务增长的战略推动力。”并补充道:“它提供了满足下一代人工智能数据中心需求所需的带宽和容量。”
芯片说——知识星球欢迎您
1007