就在前几天,SambaNova和Intel搞了个大新闻。
两家宣布联手搞了一套专门为“Agentic AI”设计的硬件方案。
什么叫Agentic AI?
通俗点说,就是那种不光会聊天,还会自己动手干活的AI。
写代码、调工具、查数据库、跑编译——跟个刚入职的实习生似的,你得给它分配任务,它还真能给你干出点东西来。
但问题来了。
这种能干活的AI,把现有的GPU-only架构给干废了。
为什么?
因为传统的GPU就像个偏科严重的学霸——矩阵运算牛逼得不行。
但你要让它同时管代码编译、工具调用、任务协调、数据库访问……
这就好比让博尔特去参加铁人三项,跑得快有什么用?
自行车不会骑,游泳直接沉底。
一、GPU:我全都要,结果全都要不起
过去两年,AI圈的主流叙事就一句话:GPU is all you need。
训练用GPU,推理用GPU,连你家猫的照片分类都用GPU。
英伟达的市值就是这么被吹上天的。
但Agentic AI来了之后,剧本变了。
这帮AI Agent干活的时候,其实分三个阶段:
第一个阶段叫prefill。就是你给AI一段长长的提示词,它得把这段文字消化掉,转换成自己能理解的形式。这个阶段,GPU确实猛——并行处理,唰唰唰就干完了。
第二个阶段叫decode。AI开始一个字一个字地往外蹦答案。这个阶段,瓶颈不在计算,在内存。因为整个对话的上下文都得存着,GPU那点显存根本不够看。而且生成是串行的,GPU的并行优势完全发挥不出来,只能干瞪眼等着。
第三个阶段更离谱——AI Agent要开始干活了:编译代码、调用API、查数据库、协调多个任务。这些活儿,GPU完全不在行。就好比你让一个顶级厨师去修下水道,他可能连扳手都不会拿。
所以现在的情况是:GPU在前面两个阶段还能勉强撑住,到了第三个阶段直接歇菜。
那怎么办?
传统思路是:再加GPU,使劲加,堆到天上去。
但这就像你车发动机不行了,你不去修发动机,反而在后面多挂几节车厢——能跑得快才见鬼了。
二、Intel:没想到吧,老子又回来了
这时候,Intel带着它的Xeon 6 CPU,一脸坏笑地出现了。
“兄弟们,别慌,这种杂活,我熟。”
CPU这东西,过去两年被GPU按在地上摩擦。
所有人都说CPU是“傻大粗笨”,干不了AI的精细活。
但Agentic AI一来,大家突然发现——那些GPU干不了的杂活,恰恰是CPU的舒适区。
代码编译?
CPU干了三十年。
任务调度?
操作系统就是干这个的。
数据库访问?
CPU的指令集里专门有这玩意儿。
多任务协调?
你当多核处理器是摆设?
Intel这次学聪明了。它没跟GPU抢prefill的活儿——那确实是GPU的强项。它也没跟SambaNova抢decode的活儿——那需要专门的推理加速器。
Intel选择了一个很鸡贼的位置:我做管家,我不干活,我管干活的人。
具体来说,在Intel和SambaNova这套新方案里:
GPU负责prefill——把长提示词快速消化掉,生成KV缓存。
SambaNova的RDU负责decode——高速生成token,一个字一个字往外蹦。
Intel Xeon 6负责剩下的一切——任务协调、工具调用、API执行、代码编译、结果验证……反正脏活累活都归它。
这就好比一个餐厅:
GPU是切菜工,刀工一流,切得快。
SambaNova是炒菜师傅,颠勺技术好,出菜快。
Intel是餐厅经理,点单、传菜、结账、处理投诉——什么杂活都干。
没有经理,这餐厅根本转不起来。
三、SambaNova:你们可能不知道我是谁,但我的RDU是真猛
说到SambaNova,可能很多人没听过。
这家公司做的是“可重构数据单元”(RDU),说白了就是一种专门为AI推理设计的芯片。
跟GPU不一样的是,它的架构是数据流架构——数据走到哪,计算就跟到哪,不像传统CPU/GPU那样需要频繁搬来搬去。
这玩意儿在decode阶段有多猛?
文章里说,SambaNova最新的SN50芯片,搭配64GB HBM、432MB SRAM和最高2TB DDR5,能跑10万亿参数的模型。
10万亿什么概念?
GPT-4据说也就1.8万亿左右。
而且SambaNova吹了个牛逼:一个256颗SN50组成的集群,在30千瓦、风冷的机柜里,就能给1万亿参数的模型提供“顶级AI体验”。
同样的效果,如果用Nvidia的Groq LPU,需要2000多颗,还得上液冷,功耗直接干到1兆瓦。
1兆瓦 vs 30千瓦,兄弟们自己算算电费。
当然,这数字是SambaNova自己说的,可能有水分。
但方向是对的——decode这个活儿,确实需要专门的硬件,GPU不是最优解。
四、这波操作,妙在哪?
Intel和SambaNova这套方案,最骚的地方不是技术,是现实可行性。
你想想,现在有多少企业的数据中心是风冷的?液冷数据中心又贵又难建,还得改楼体结构,审批流程走一年。
SambaNova说:不用折腾,我们的方案直接塞进你现有的风冷数据中心,插上就能用。
而且Xeon 6是x86架构,你现有的软件生态、开发工具、运维脚本,全都无缝兼容。不用重写代码,不用培训员工,不用推倒重来。
这就是Intel最大的底牌——存量市场。
全世界有多少数据中心跑的是x86?
你让它们全换成Arm或者别的架构,那不是升级,那是拆迁。
SambaNova的CEO Rodrigo Liang说得直白:“GPUs to start the job, Intel Xeon 6 to run it, and SambaNova RDUs to finish it fast.”
翻译成人话就是:GPU开个头,Intel干杂活,SambaNova收尾快。
Intel数据中心老大Kevork Kechichian也补了一刀:“Workloads of the future will require a heterogeneous mix of computing.”
未来的活儿,不是单一芯片能干的。
你得搞“混搭”。
什么是“混搭”?
就是不是GPU一家独大,还要有CPU,LPU......
原来,这就是叫混搭啊。
五、CPU:我胡汉三又回来了
其实这波趋势,圈内人早就嗅到了。
Nvidia自己都在搞“超级芯片”——把GPU和CPU焊在一起,比如Grace Hopper、Vera Rubin。
为啥?
因为它也知道,光有GPU不行。
Arm最近也发布了自家的数据中心CPU,专门为AI推理优化,名字就叫“AGI CPU”。
(这名字起得,生怕别人不知道它是干嘛的。)
d-Matrix收购了GigaIO的数据中心业务,也是为了搞异构计算。
大家都意识到一个问题:单一芯片,搞不定所有活。
GPU强在并行计算,但弱在内存带宽和任务多样性。
CPU强在通用性和生态,但弱在大规模并行。
专门加速器(比如RDU、LPU)强在特定任务,但弱在通用性。
那怎么办?
全都要。
这就是异构计算的逻辑:让专业的芯片干专业的活,然后通过高速互联把它们串起来。
Intel和SambaNova这次合作,就是这套逻辑的落地版。
六、蓝图已出,落地还要等等
这套方案会在2026年下半年正式推向市场。
注意,是2026年,不是明年。
还有几个月说的时间。
到时候,企业、云服务商、主权AI项目都可以买。
Intel之前还想用16亿美金收购SambaNova,没成,但投了人家最新一轮3.5亿美金融资。
关系处得不错,合作也顺理成章。
至于具体用哪款GPU,文章没明说。
Intel自己也有GPU,叫“Crescent Island”,也是2026年下半年出。
说不定就是它。
不过,也可以用老黄的GPU,毕竟老黄都投资了intel。
这事儿其实挺有意思的。
过去两年,AI圈子的叙事一直是“GPU is king”。“GPU is all you need”
这是大模型训练时代的叙事。
英伟达市值涨了十倍,所有人都觉得未来是GPU的天下。
但现在Agentic AI一来,大家发现:光有GPU不行,CPU又回来了。
这不是说GPU不行了,而是说单一芯片的神话破灭了。
未来的AI基础设施,一定是多种芯片混搭。
GPU做一部分,CPU做一部分,各种XPU、RDU、LPU再做一部分。
谁也别想独吞。
这就像一支球队:前锋进球多,但你不可能让11个人全踢前锋。
得有后卫、中场、门将,各司其职。
Intel这波操作,其实是在告诉市场:我CPU又回来了
SambaNova则证明了一件事:在decode这个细分赛道上,专门芯片确实比GPU更香。
至于最终谁能赢?
别急,2026年下半年,答案会慢慢揭晓。
最后说一句:
AI这玩意儿,本质上是系统工程。
不是某个芯片牛逼,整个系统就牛逼。
就像你做饭,锅再好,刀不行,火候不对,调料乱放,一样难吃。
系统,不是芯片。
在大模型训练的黄金时代,GPU is all you need。而在推理变现的Agentic AI时代,
逻辑变成了,AI system is all you need
217
