所有人都在说大模型牛,那支撑大模型跑起来的根儿到底是什么?
是芯片,更准确说,是一整条环环相扣、卡脖子卡到你怀疑人生的AI半导体价值链。
整个AI半导体产业链,就是全球化分工+寡头垄断。
每个核心环节就那么两三家公司说了算,缺一个环节整个产业都停摆;
现在产业链的重心已经从「大模型训练」往「推理」跑,未来十年推理市场才是真正的主战场;
最后,边缘AI肯定来,只是时间问题,去中心化是计算产业逃不开的规律。
1. 上游设计:AI芯片的灵魂,卡设计的不是芯片厂,是工具厂
设计环节是AI芯片的起点,决定了这块芯片「能做什么、能做多好」,整个环节分成三层,每层都有寡头拿捏着。
第一层是协同设计的「桥梁玩家」,代表就是博通、美满电子。
很多人不知道它们,觉得它们不做AI主芯片就没存在感,其实不对——AI服务器里,算力、存储、网络要连起来,就得靠它们做高速接口、互联芯片、存储控制器,这些配套做不好,你堆再多GPU也跑不快,整个AI集群的性能上限就是它们定的。
第二层就是大家熟悉的AI芯片设计商,既有英伟达、AMD、英特尔这种传统巨头,也有谷歌、亚马逊、微软这些云厂亲自下场自研。
这个格局怎么来的?
很简单,AI时代芯片必须和大模型、云服务绑在一起玩,传统巨头靠架构能力垄断了通用算力,云厂为什么要自己做?还不是不想被英伟达卡脖子,软硬一起优化能直接降算力成本,把自己大模型和云服务的命脉捏在自己手里。
第三层就是绝大多数人都没听过,但却是最底层的「卡脖子门槛」:
EDA工具和IP核,相当于芯片设计的「水电煤」,没有它们,你连先进制程芯片的图都画不出来。
EDA现在就是新思(synopsys)、楷登(cadence)、西门子(mentor)三家垄断,从前端设计、仿真到后端布线,全流程全包,你想用别家的都没得用,3nm、2nm芯片离开EDA根本做不出来。
IP核就是现成的芯片模块化内核,现在ARM就是绝对老大,低功耗适配性又好,不管是手机还是边缘AI芯片,基本都用ARM的,芯片厂拿过来改改就能用,快得很。
2. 中游制造:AI芯片的肉身,这才是壁垒最高的「算力工厂」
设计画好了饼,能不能做出来,全看制造。整个制造环节是全球技术壁垒最高的产业,缺一个零件都不行,我们一层一层说。
半导体制造核心设备厂商分布图
首先是制造的「工业母机」:晶圆制造设备,四大核心品类全是寡头垄断:
光刻:ASML一家独大,EUV光刻机是3nm以下制程唯一能用的,说它卡了全AI产业的脖子一点不夸张
刻蚀沉积:泛林、东京电子、应用材料三家说了算,一个雕芯片结构,一个铺材料,制程精度全看它们
检测:KLA一家独大,生产过程中找缺陷,控良率全靠它
然后就是晶圆代工,台积电、三星、英特尔三家,台积电直接垄断了全球90%以上的先进制程代工,现在英伟达H100、AMD的MI300、谷歌云厂商的高端AI芯片,全在台积电产,台积电的产能,直接决定了全球高端AI算力能供多少货,承上启下的核心就是它。
接下来很多人以前忽略的环节:先进封装,现在已经从配角变成了核心卡点。
以前封装就是给芯片套个壳保护一下,现在不一样了,AI芯片要堆算力,单芯片做不下了,就得用台积电CoWoS这种先进封装,用芯粒堆叠的方式把多块芯片拼在一起,算力密度和带宽直接往上翻。之前英伟达H100交付跟不上,就是因为台积电CoWoS产能不够,你说这个环节重要不重要?
最后就是那些隐形的配套:材料、测试设备,材料是信越、SUMCO这些厂商垄断,测试是爱德万、泰瑞达双寡头,缺了哪个,芯片都量不了产。
3. 下游终端:算力最终交付,现在重心已经变了
芯片做出来了,最终就是卖给不同场景用,现在整个市场已经从训练往推理转,格局完全变了,我们分三类说。
第一类:通用GPU和ASIC,现在训练和通用推理的绝对主力,这个赛道就是英伟达的天下,H100/H200几乎垄断,你知道吗?英伟达数据中心40%的收入已经来自AI推理了,它不止吃训练的饭,推理市场它已经是老大了。
现在最能打的对手就是AMD,MI300X显存更大,大批次推理吞吐量更高,大小批次场景成本都更优,目标就是今年干到50亿美元AI营收,盯着的就是推理这块大蛋糕。
而且说个实话,英伟达的壁垒真不是只靠GPU硬件,CUDA生态、NVLink高速互联、整套系统解决方案,这才是别人很难抄走的,新手玩家想直接硬刚真的很难。
第二类:推理专用芯片,这是现在AI产业链最火的新战场,一堆初创公司拿着融资往里冲,比如Tenstorrent、Groq这些。
为什么这么火?
因为生成式AI要落地赚钱,最大的瓶颈就是推理成本——你大模型能不能赚钱,就看单次推理花多少钱、延迟有多高。
这些专用芯片就是冲着这个来的,专门针对推理做架构,在特定场景下,能效比比通用GPU高很多,成本也更低,靠性价比抢市场。
但难点也很明显,英伟达的生态墙摆在那,云厂商自己也做自研芯片,这些初创公司只能扎进细分场景,做出来绝对的成本优势才能活下来。
第三类:边缘AI芯片,这是未来最大的增量市场,也是AI的去中心化革命。
现在核心玩家既有苹果、高通、谷歌这种消费电子巨头,也有英伟达、英特尔,还有一堆初创公司。
边缘推理其实是双赢:把推理放到用户终端跑,企业不用花那么多钱建数据中心,省了大把成本;用户用起来延迟更低,数据也不用上传,隐私更好。
现在这个事的可行性越来越高了,小语言模型的能力越来越强,比如o1-mini,跑在终端完全够用。
其实计算产业发展从来都是这个规律:大型机干掉大型机,然后小型机起来,然后PC,然后智能手机,都是高端算力解决了大部分人不需要的问题,最后就会往轻量化、去中心化走。
等哪天大模型能力「够用了」,小模型+终端NPU成熟了,边缘AI直接就起来了,消费电子会是最大的落地场景,整个价值链都会被重构。
4. 讲透核心逻辑:未来AI半导体的变局在哪?
看完整个价值链,我们总结四个核心规律,你搞懂了就能看懂未来AI产业的走向:
第一,全球化分工+寡头垄断是永远的特征,每个核心环节就那么两三家说了算,断一个环节整个产业链都要地震,这就是为什么各国都在抢产业链核心话语权,根本不是为了面子,是为了不被卡脖子。
第二,重心已经从训练转向推理了,过去几年大家都抢着训大模型,把英伟达捧上了天,未来大模型都落地了,推理的算力需求会是训练的几十倍,绝对是未来十年的主战场。甚至那些原来训模型的高端硬件,升级之后都会转去做推理,这个市场只会越来越大。
第三,竞争核心从单芯片参数,变成了全栈生态和总成本,你参数做得再好没用,客户最后算的是全生命周期的总成本和好不好用。英伟达的领先从来不是只堆参数,是整套方案给你准备好了,别人要抢市场,就得先过生态这关。
第四,边缘AI不是会不会来,是什么时候来,等小模型够用,终端算力跟得上,AI肯定从全集中在云端,变成「云端+边缘」分布式,那时候原来的价值分配就变了,终端厂商和边缘芯片公司话语权会大很多。
5. 最后说句实在的
AI半导体价值链,就是整个AI产业的底层权力地图,现在AI刚从技术突破往规模化商用走,每个环节都在洗牌。
不管是巨头堆生态,还是初创公司玩架构创新,最后都绕不开「更高性能、更低成本」这个核心命题。谁能捏住核心环节的技术壁垒,给客户掏出真金白银的成本优势,谁就能在这场算力军备竞赛里,站到最后。
作为普通人,你记住这几个方向就够了:推理是下一个风口,边缘AI是未来十年的大增量,产业链自主可控是长期确定性方向,跟着这个方向走,踩坑的概率会小很多。
参考:
https://www.zionmarketresearch.com/report/edge-artificial-intelligence-chips-market
https://iot-analytics.com/leading-generative-ai-companies/
https://www.generativevalue.com/p/the-inference-landscape
189