全球算力格局震荡,“高阶TPU”崛起!
近日,多家外媒报道,非GPU芯片应用迎来爆发期,Meta与谷歌签署数十亿美元合作,大规模租用TPU训练模型;OpenAI计划导入英伟达基于Groq技术的AI推理芯片。谷歌计划在2027年部署600-700万颗TPU,大部分将供给Anthropic、OpenAI、Meta以及苹果等外部客户。OpenAI上线GPT-5.3-Codex-Spark,选择了Cerebras芯片进行推理任务,带来了更低延迟与更低能耗。面对日益清晰的算力变局,AI的竞争焦点正从单纯的算力规模,深刻转向对能效比与延迟的极致追求。