TrendForce援引供应链信息称,自3月以来,消费级CPU价格已上涨约5%到10%,服务器CPU上涨约10%到20%,而且下半年还可能继续调价;2月路透又报道称,Intel部分服务器CPU在中国交期已拉长到6个月,一般性价格上涨超过10%,部分AMD产品交期也被拉长到10周。
单看这些信息,很容易把这轮行情理解成一次典型的缺货涨价。但如果把时间线拉长,会发现真正被重估的并不是CPU本身,而是它在AI基础设施里的位置。
4月20日,摩根士丹利公开提出一个更关键的判断:当AI从生成式模型走向更具自主性的Agentic AI,算力瓶颈正在从单纯的GPU算力,转向CPU和内存主导的“通用计算强度”。
换句话说,问题不再只是“模型跑得够不够快”,而是“系统能不能把数千次任务调度、工具调用、数据搬运和状态管理接起来”。CPU价格上涨,只是这场结构变化最先冒出来的那个信号。
从涨价到重估——CPU不是周期,而是“地位跃迁”
如果仍然用上一轮生成式AI的框架看CPU,很容易低估这次变化。过去两年,GPU是毫无争议的主角,CPU更多像“配套件”——负责喂数、搬运、调度,价值感远不如加速器本身。
但Agentic AI改变了任务结构。摩根士丹利的说法很直接:当AI从“生成答案”走向“自主行动”,瓶颈正在转向CPU和内存,因为下一轮AI更依赖协调而不只是原始算力。
到2030年,数据中心CPU市场本身就将超过1000亿美元,而Agentic AI还可能再额外带来325亿到600亿美元的新增需求。这个增量不是传统服务器更新周期能解释的,它更像是一条新需求曲线。
为什么是CPU?因为Agent不是一次性推理,而是持续调度。AMD上个月在官方博客里已经把这个逻辑点明了:在现代AI集群里,CPU负责调度、数据准备、内存与I/O、控制流等关键系统工作;随着Agentic AI普及,推理从单步响应变成多步骤工作流,对CPU算力的需求会明显上升。
NVIDIA和Arm在3月几乎同时下场,某种程度上也是对这个趋势的公开确认。NVIDIA发布了面向Agentic AI和强化学习的Vera CPU,强调CPU不再只是辅助模型,而是在驱动Agentic AI扩展;Arm则第一次从授权IP走向自研成品硅,推出专为Agentic AI数据中心设计的Arm AGI CPU。一个GPU霸主,一个长期只卖IP的公司,在同一个月押注CPU,这件事本身就比涨价更有信号意义。
更能说明问题的,是CPU和GPU配比正在被重写。TrendForce的最新研究指出,当前AI数据中心的CPU:GPU配比大约在1:4到1:8之间,但在Agentic AI场景下,未来可能升到1:1到1:2。
它还援引Arm的估算称,传统AI数据中心每GW大约需要3000万个CPU核心,而AI Agent时代可能上升到1.2亿个核心。这个变化意味着,CPU不再只是“成本项”,而开始重新成为系统性能、吞吐和延迟的决定项。市场今天给CPU涨价,本质上是在给“调度权”和“控制层”重新定价。
AI Agent时代的核心矛盾:算力不再稀缺,协同才是
生成式AI时代,大家争的是谁有更多GPU;Agentic AI时代,争的是谁能把复杂任务系统化地跑起来。
这里的变化,不是芯片名字变了,而是系统工程的重点变了。NVIDIA在Vera的官方说明里提得很清楚:Vera不是为单一模型推理设计,而是为代码、工具、数据工作流、KV cache管理和系统控制服务,目的是让GPU持续高利用率运转。
它甚至把“AI factory”当成产品单位来讲,而不只是单颗芯片。这个表述背后有一层很现实的含义:GPU仍然贵、仍然稀缺,但真正拖慢系统效率的,越来越不是GPU本身,而是周围那套控制、搬运、缓存和通信。
这也解释了为什么CPU之外,内存和通信链条会被同步重估。摩根士丹利在同一份判断里就指出,Agentic AI会显著推高内存需求,把AI投资从GPU进一步外溢到内存和制造端。
TrendForce 3月31日的价格调查显示,受AI服务器需求和CSP长约锁产能驱动,2026年二季度传统DRAM合约价预计还要再涨58%到63%,NAND Flash合约价则预计上涨70%到75%;北美云厂正在加速AI推理部署,高容量RDIMM成为重点采购对象,而供应商继续优先把产能给服务器相关产品。也就是说,Agent时代的关键矛盾,已经从“有没有算力”转成“整套系统里谁先被挤爆”。
通信和管理芯片的压力同样在上来。TrendForce 4月15日提到,受AI服务器高需求影响,通用服务器增长正被零部件交期拉长所拖累,其中BMC芯片因为成熟制程产能被更高利润的AI相关芯片挤占,交期已从11到16周拉长到21到26周;同时,2026年AI服务器出货预计增长28%,明显快于服务器总体13%的增速。
再往上游看,TSMC上周表示3纳米产能依然“非常紧”,正在台湾、美国和日本扩产;ASML则在4月中旬上调全年收入预期,直言“芯片需求正快于供给”,客户已在加快2026年及以后的扩产计划。换句话说,系统复杂度一旦上升,瓶颈就不会只停在加速器,而会沿着CPU、内存、BMC、封装、先进制程一路传导。
投资主线迁移,从“英伟达逻辑”到“系统级红利”
如果说过去两年的主线是“寻找下一个英伟达”,那么接下来更现实的问题是:谁掌握了AI系统里那些越来越难被替代的瓶颈。
CPU当然是其中之一。Intel和AMD在2月就已向中国客户提示交付偏紧;4月,Barron’s报道提到,HSBC上调Intel评级时,直接把“服务器CPU短缺可能持续到2027年、2027年服务器CPU出货同比增长20%”写进了核心理由。与此同时,Arm不仅推出了AGI CPU,还从授权商变成了亲自下场卖成品,这说明CPU市场的竞争不再只是x86双雄的旧故事,而是在被Agentic AI重新打开。
但真正值得注意的,可能还不是CPU本身,而是整个系统里那些“没那么显眼、却不能缺”的环节。
先进制程和先进封装就是典型例子。TrendForce 3月的研究已经指出,2026年先进制程与先进封装产能都处于满载状态,并由此推动价格上涨;TSMC本月也重申AI驱动下3纳米产能持续紧张;ASML则因为AI需求抬升,把2026年收入指引从340亿到390亿欧元,上调到360亿到400亿欧元。
市场过去常把AI基础设施理解成GPU独角戏,但现在越来越像一场供应链接力赛:谁能供得上先进制程、先进封装、内存和关键器件,谁就能拿走更稳定的利润。
这背后其实是一个很老的产业规律:当系统复杂度上升,利润会向瓶颈集中,而不是向最显眼的单品集中。今天大家都在谈Agent,真正的投资含义却不是“再找一个会涨的AI概念股”,而是重新识别谁在系统里拥有不可替代性。
对AMD、Intel、Arm而言,机会来自CPU重新进入定价中心;对Micron、SK hynix、三星而言,机会来自内存重新成为性能约束;对TSMC、ASML而言,机会来自“扩产也扩不够快”;对BMC、先进封装、板级和高速互连供应商而言,机会来自系统越来越复杂,任何一块短板都可能变成溢价来源。
与此同时,风险也同样清楚:如果云厂资本开支放缓,或者Agentic AI的商业化速度不及预期,这些已经被抬高估值的基础设施资产,也会面临反向定价。毕竟,摩根士丹利估算仅亚马逊、微软、Alphabet和Meta四家公司,2026年就将为数据中心和AI芯片投入约6300亿美元,市场当前给的很多溢价,本质上都押在这笔资本开支能够兑现。
CPU涨价只是入口,真正被改写的是AI基础设施的权力地图
在这个阶段,赢家不再只是拥有最多GPU的公司,而是那些能解决调度、内存、通信、封装和资源分配问题的基础设施提供者。CPU之所以重新回到舞台中央,不是因为GPU不重要了,而是因为Agentic AI让“控制层”第一次变成了真正的瓶颈。
对投资者而言,下一轮AI行情最值得警惕的一点,恰恰是叙事还在沿用旧框架。市场仍习惯于用GPU视角理解AI基础设施,但产业已经开始按系统视角重新分利润。谁在系统里不可替代,谁就更可能拿到下一轮定价权。CPU涨价只是信号,真正的主线迁移,才刚刚开始。
500