在算力需求爆炸式增长的今天,传统风冷数据中心正面临散热瓶颈。液冷技术作为解决高热密度挑战的关键路径,正在重塑数据中心的设计标准与建设理念。本文将结合《数据中心设计标准》(GB/T 50174征求意见稿)与行业实践,为您深入解析液冷数据中心的关键规划指标变化。
01、技术路线对比:传统风冷与液冷的本质差异
传统数据中心与液冷数据中心的比较
信息来源:MIR DATABANK
在热密度方面,传统数据中心处于中等水平,而液冷数据中心因适配高热密度场景,其热密度更高。液冷数据中心的核心优势在于散热能力更强、温控精度更高、PUE值更低以及运行噪音更小,但也面临一系列挑战,如技术成熟度较低、国家标准尚不完善、可靠性有待提升等。此外,液冷设施往往与特定服务器绑定(如需与华为、浪潮、英伟达等厂商的服务器单独适配),导致通用性较弱。同时,液冷数据中心的建设成本更高,对承重要求较高,依赖专用冷媒,且市场上相关产品厂商和可参考的应用案例较少。
从当前市场格局来看,传统数据中心仍占据主导地位,而液冷数据中心将成为技术发展的必然趋势,也将带来更多在设计、运维、成本控制等方面的挑战。
02、液冷数据中心建设关键要点:规划指标升级
2.1、空间布局:重视安全的精细化分区
机柜与通道布置
机柜设置
卧式浸没液冷机柜:面对面机柜间距>1.2米。若背面需要维修,背对背间距>0.8米。
立式浸没液冷机柜:机柜正面间距>1.8米;背面间距>1.2米。
通道设置
成行排列的机柜长度>6米时,两端应设有通道。
两通道之间的距离>15米时,应在中间增设通道。
通道宽度应>1米,局部可为0.8米。
机柜最密布置标准
一排机柜的最大长度为15米。单机柜最小面积为2㎡。
机柜最大长度示意图(左),单机柜占地面积示意图(右)
图片来源:《数据中心设计标准》GB/T 50174征求意见稿
冷却液存储区
实践中,多数液冷数据中心均设置专用存储区并配备排气系统,此举主要是防止气体在有限空间内累积产生未知风险和未验证的长期风险。
电力与通信线缆引入
为保障单路供电/传输的安全,液冷数据中心要求A级数据中心容错配置的电力与通信线缆应设有不少于2个引入间或引入点,且其间距不应小于15m(包含超大型数据中心)。
2.2、面积配比:配套面积占比反超主机房
主机房面积
单台机柜占地面积上限已从原规范的4.0㎡提升至6.0㎡,以适配卧式液冷机柜的实际需求。
配套面积
原标准中,辅助区与支持区面积之和,为主机房面积的1.5-2.5倍,现上限已提高至6倍。随着单机柜密度持续提升(如达600千瓦级),配电等支持设施需求同步激增,配电间与机房面积比已从早期的1:4逐步发展为1:2、1:1,目前接近2:1。未来趋势显示,机房面积可能因集成度提升而进一步缩小,而配电等支持区占比将持续扩大。
2.3、机房模块布置:网络传输距离约束决定布局形态
智算中心机房布局示意图
图片来源:《数据中心设计标准》GB/T 50174征求意见稿
智算中心的机房布局,需满足尽可能短的网络传输距离。智算中心机房需将主机房区集中布置;同一计算集群跨机房部署时,应采用相邻机房方式。同时,应将网络机房置于各集群的中心位置,以最小化传输路径。传统大平层布局虽具有建设周期短、适配间接蒸发冷却系统等优点,但容易导致IB(≤50米)、TOKEN(≤150米)等网络传输距离超限。相比之下,两层式布局通过垂直布线可有效缩短直线距离,更符合智算中心网络带宽、高吞吐、低延迟的部署需求。
2.4、层高要求:层高持续增加,远超传统标准
智算中心层高要求示意图
图片来源:《数据中心设计标准》GB/T 50174征求意见稿
原规定数据中心对主机房净高不小于3米的标准仍在执行,但不适用于智算中心。智算中心要求梁下高度达到 5.4-6.9 米,具体需求构成:
地板下液冷水管空间:0.5-1米;
机柜高度:2-2.5米;
机柜顶部空间:至少0.5米,容纳网络线槽、强电线槽、光纤槽道、回风通道及梁板安装间距。
实际案例进一步印证了数据中心层高持续增加的趋势。例如,华为CM 384机房采用两层小母线,光纤槽道同样为双层布局;英伟达MVL 72机房也体现了高层高的特征。
某评审项目要求
英伟达MVL 72 机房的公开图片
2.5、冷源系统:风液比可调,液侧满载规划
制冷与空调系统的可用性
随着数据中心热密度不断增大,制冷保障要求同步提升,A级数据中心空调系统需全部采用容错系统。
风液比要求和参数
冷源系统设计宜满足液冷和风冷机柜的混合部署,且两种机柜的部署比例可调。
风液比参数
图片来源:《数据中心设计标准》GB/T 50174征求意见稿
风液比设计需适应当前风冷与液冷过渡阶段,并为未来向全液冷演进预留空间。目前主流配置中,风冷占比仍较高,如英伟达MVL 72为8.5:1.5,华山项目为8:2,华为CM 384为7:3,亦有部分采用5:5配置。现行规范要求风液比应具备可调性,以适应服务器配置变化。对于计算服务器配置不确定的场景,建议按风侧50%、液侧100% 进行设计——风侧扩容较易通过空间预留实现,而液侧改造难度大,必须按满负荷规划。当前智算中心常见配置为5:5,未来液冷占比将持续提升。因此,液侧按100%规划是关键原则。
2.6、新风与洁净度:中效或亚高效过滤器
数据中心洁净度等级
图片来源:《数据中心设计标准》GB/T 50174征求意见稿
亚高效、高中效、中效和粗效滤料的过滤性能
图片来源:《空气过滤器用滤料(JG/T 404-2013》
数据中心洁净度分为A、B、C三个等级。液冷系统对粉尘高度敏感,尤其插拔接头与毛细管散热结构易受微尘影响,因此过滤要求更高,仅靠初效过滤器无法满足需求,必须配备中效或亚高效过滤器,以控制0.5微米级颗粒,实现洁净度达标。
2.7、用水管理:水资源管控趋严
数据中心建设必须严格遵循国家“四水四定”政策与区域水资源可持续利用要求,其量化指标——年均水利用效率(WUE)需控制在0.8至2.0之间,在满足电信设备散热需求的前提下,严格控制水资源使用。
2.8、连续供冷:面对余热管理挑战
数据中心须保障连续供冷:设置蓄冷设施,为相关控制系统配置不间断电源。但对于液冷数据中心,高热密度服务器(如百千瓦级)停机后,残余热量仍可能损坏设备,因此空调系统需持续运行至余热排尽。数据表明,8千瓦级服务器宕机时间约10分钟,需通过预测性维护在故障发生前及时干预。
2.9、电力配置:向DR系统、大电流、集成化和标准化演进
电力容错
2N系统(左),DR系统(右)
图片来源:《数据中心设计标准》GB/T 50174征求意见稿
为NVL 72服务器供电时,若采用2N系统,单路故障将导致3个电源失效,无法满足最低需4个电源工作的要求。而DR系统在单路故障时仅影响2个电源,剩余4个可正常工作。因此,该类服务器需采用3路供电或DR系统,2N系统无法适配。
电力母线
传统小母线定义为电流≤800 安,智算中心因负荷激增(如50千瓦机柜 ×15 个/列,计算电流达1875A以上),小母线已无法满足需求。华为CM 384机房已采用两层母线系统,800伏高压直流母线正是为适配大电流传输需求出现。
电力模块
电力集成模块方面,随着数据中心用电量增大,部分机房已需配套两个高压室。未来600千瓦级智算中心可能将电力集成模块作为标配,该模块可直接将高压转换为设备可用电压,具备极简、快速、美观等优势,但存在单价高、缺乏统一标准、厂商间无法互换的问题(当前科华、科士达、华为、维谛等厂商均有相关产品,但接口与协议不统一,无法像UPS那样直接替换),需通过标准统一解决该问题。
写在最后
液冷技术正推动数据中心设计理念的全面革新。从空间布局到建筑形态,从电力配置到安全标准,每一个环节都需要重新思考。面对单机柜功率密度从几十千瓦向几百千瓦的跨越,数据中心规划设计必须前瞻布局,为液冷技术的全面普及做好准备。
尽管液冷数据中心目前仍面临成本高、标准不完善等挑战,但其作为应对算力需求爆炸的核心技术路径,已成为不可逆转的行业趋势。未来几年,随着技术成熟和标准统一,液冷数据中心将逐步成为智算时代的主流选择。
如需了解更加详细的液冷数据中心相关市场信息,可通过文末的联系方式与我们取得联系!
*登录MIR DATABANK制造业专业数据平台,获取更多制造业数据信息 、公司信息、研究报告!https://www.mirdatabank.com
1188