近日,在深圳举行的一场媒体交流会上,罗姆把AI服务器的“下一道硬瓶颈”摆在了台面上:算力不再是瓶颈,电力成为主要的瓶颈。

根据罗姆提供的数据,2030年AI相关耗电量可能攀升至约1000TWh,接近全球发电量的1/10;同等信息查询任务下,生成式AI的耗电量被估算为传统网络搜索的约10倍。在这种压力下,数据中心供电正从48V/54V的低压大电流体系,向“±400V/800V直流母线(HVDC)+机架内高密度DC-DC”的新架构迁移。
罗姆为何会对AI服务器电源进行押注?一方面,AI带来的高压供电与高效率需求,为SiC/GaN这类高端功率器件打开了更高附加值空间;另一方面,电源系统的标准化与规模化落地,又能反过来验证器件路线、拉动产品节奏,并把“技术参数”变成“可复制的订单”。
电力成AI服务器重要限制,罗姆重写供电架构?

“耗电量激增”正成为AI服务器发展的首要矛盾:GPU功耗路线图抬升过快,供电、散热与机架物理边界几乎被同时触发。根据英伟达2025年GTC大会资料显示,英伟达GPU TDP从700W级跃迁到1400W,再到1800W,甚至在2027年指向3600W级。
当电压维持在48V~54V时,功率越大意味着电流越大,电缆电阻损耗与发热随之上升;同时,粗重铜缆带来重量、空间与成本压力。罗姆在现场给出一个直观估算:如果按1MW级AI服务器规模计算,铜线用量可能达到4到5吨;而数据中心运营成本中,电费占比可达60%~65%。
这也是为什么“供电架构”突然从基础设施细节,变成了算力竞赛的前置条件:当机架功率逼近甚至跨过百千瓦量级后,传统插座、线缆与散热设计都要被迫重做。
罗姆把下一代服务器的变化拆成两个“机架”:电源侧架(Power Source)负责配电与AC-DC转换效率,服务器机架(IT rack)则以功率密度优先,为AI处理器与冷却系统“腾空间”。并且,母线电压从48V/54V走向+800V或±400V DC,这几乎已是大厂共识。

在深圳媒体交流会的现场发言中,罗姆半导体(上海)有限公司深圳分公司技术中心总经理水原徳健明确提到两条产业路线:一条是Open Compute Project阵营(由微软、谷歌和Meta联盟)推动的±400V系统;另一条是英伟达推动的800V系统;这种路线的分歧意味着:未来一段时间,供电并不会“一刀切”,而是多标准并行、不同客户与不同算力密度对应不同电压等级。对功率半导体厂商来说,机会与难点会同时放大——既要押注高压趋势,又要在不确定标准里做出可迁移、可复用的方案。
不过,供电从低压走向高压,并不意味着48V体系立刻退出。相反,在存量架构与过渡阶段,48V热插拔(Hot-swap)依然是服务器可靠性与运维体验的关键环节:在电源导通状态下插拔,如果没有热插拔控制器(HSC)与合适的MOSFET来限制浪涌电流,后级器件可能被瞬间冲击击穿。

罗姆发布了面向HSC的100V耐压N沟道MOSFET(如RY7P250BM、RS7P200BM),强调其在48V热插拔电路中的适配性,并突出“超宽SOA范围”与“低导通电阻”的组合诉求;资料还提到RY7P250BM被全球知名主流云平台企业认证为推荐器件。从系统角度看,热插拔这类“看似边缘、但出问题就会全盘停机”的部件,往往决定客户是否愿意把新供电架构推向规模化。
罗姆的解法:把效率卷到99%+,把体积压到246W/in³

面对这一难题,罗姆给出的解决方案“更进一步”,拿出一套围绕SiC与GaN的供电方案:在800VDC、20~33kW级电源单元场景里,把功率器件损耗口径下的模块效率推到99%以上;在更强调体积的IT机架侧,通过GaN高频拓扑把功率密度做到15W/cc(246W/in³),约为现行PSU标准(100W/in³)的2.4倍;同时,2026年将推出的第5代SiC器件在仿真条件下可将总损耗相对第4代降低约30%。
在罗姆给出的面向800VDC、20~30kW(扩展至33kW)级电源单元方案中,核心是让SiC、GaN与Si各自落在最“划算”的拓扑位置:电源侧架强调高压高效,更多使用SiC;服务器机架侧强调功率密度,GaN被用于更高开关频率的场景,配合隔离型LLC等拓扑实现小型化。

以IT机架的隔离型DC-DC为例,罗姆给出的是“800VDC转换为50V(IBV)”的三相隔离型LLC方案:在“仅功率器件损耗”的仿真口径下,采用高功率密度GaN产品的级联隔离型LLC可实现99%以上效率;同时将开关频率提升到500kHz,使变压器等外围器件缩小,从而将功率密度推至15W/cc(246W/in³)。笔者认为,采用GaN的目的是把电感、电容等外围元器件一起做小,最终才能把机架空间还给GPU与冷却系统。
需要强调的是,罗姆多处效率表述中采用了“仅计算功率元器件损耗”的口径,并注明行业标准的系统效率目标一般为97%以上。换言之,99%+更多反映器件与拓扑选择的上限潜力,而非整机系统在全工况下的直接落点。

如果说GaN对应的是“更高功率密度”,那么SiC对应的就是“更高电压下把效率抬上去”。罗姆将在2026年推出的第5代SiC的关键点:通过业界超低RonA与扩展栅极偏置电压,在仿真条件(Vin=800VDC、Pout=33kW、Ta=100℃等)下,可将导通损耗与关断损耗等合计的总损耗相对第4代降低约30%,最多可到33%。
在现场交流中,水原徳健还把器件迭代节奏与GPU升级节奏类比:英伟达把升级周期从两年缩短到一年,功率半导体如果跟不上,新一代系统就可能“卡在电源上”。 水原徳健提到,其SiC从第4代到第5代用时约4年,后续希望把迭代周期压到两年甚至更短。
合作与落地:客户的供应链顾虑
据介绍,目前罗姆的EcoGaN™已被村田制作所(Murata Power Solutions)的AI服务器电源采用,并与台达建立电源系统用功率器件战略合作伙伴关系,台达体系内也有产品采用罗姆器件。

在高压与高功率密度方案里,客户常见顾虑是:关键封装与关键器件能否获得稳定、可验证的供应,是否存在“只有一家能做”的风险。水原徳健提到,为降低客户导入门槛与供应链顾虑,其与英飞凌在封装与产品系列上有合作:例如罗姆的DOT-247封装,英飞凌也会做同类封装;而英飞凌的D-DPAK系列则由罗姆承接生产,形成互补。
这种“把独家变成可替代”的思路,和HVDC的产业现实高度一致:标准尚未完全收敛,客户更在意方案是否可迁移、器件是否可替换、供货是否可持续。单纯把参数写得更漂亮,并不足以推动大规模切换。
总结:AI算力的“电力上限”,正在把功率半导体推到舞台中央
目前中美两国都在大规模的投入到AI算力基础建设中,比如美国的“星际之门”计划。在实践过程中,数据中心工程师们发现随着AI大数据的快速发展,算力扩张正在触碰供电与散热的物理边界。更高电压带来更低电流、更少铜缆、更可控的损耗与热,同时也意味着绝缘、安全、可靠性与标准协同的复杂度陡增——它不是某一家企业能单独完成的升级。
站在这个背景下,罗姆的策略显得更加务实,一方面把“效率”和“体积”拆开分别优化:SiC主攻高压高效、GaN主攻高频高密度,并通过拓扑与器件组合,把“99%+效率(器件损耗口径)”与“246W/in³功率密度”这样的指标落到具体的800VDC→50V隔离DC-DC方案里。另一方面,罗姆与英飞凌在封装与系列上的互补合作,至少说明罗姆意识到客户最怕的不是参数不够,而是供应链的安全。
但同样需要看到,AI电源不会只靠“更高电压”或“更换材料”就自动成功。未来几年,HVDC真正的分水岭在于:标准是否收敛、保护与热插拔等“系统边角”是否足够成熟、以及从器件到电源到整机的验证周期能否被压缩——这些决定了800V/±400V究竟是少数头部客户的高端尝试,还是可复制到更大范围的数据中心基础设施升级。换句话说,AI基建的“电荒”确实有解,但解法不是某一颗器件的单点突破,而是一条从供电架构、拓扑选择、器件迭代、到生态协同的系统工程。
来源: 与非网,作者: 李坚,原文链接: https://www.eefocus.com/article/1942131.html
1134
