研报 | AI数据中心将规模化导入液冷散热技术,预估2025年渗透率逾30%
TrendForce集邦咨询预测,随着NVIDIA GB200 NVL72机柜式服务器的放量出货,AI数据中心将加速采用液冷技术,预计液冷技术在AI数据中心的渗透率将从2024年的14%提升至2025年的33%,并在未来几年持续增长。由于AI服务器的高功耗需求,初期将广泛使用液对气(L2A)冷却技术,而随着新一代数据中心的建成和AI芯片性能的不断提升,液对液(L2L)架构将在2027年开始普及,成为主流散热方案。此外,液冷技术的发展也将推动冷却模块、热交换系统与外围零部件的需求增长。