2026年3月11日,Meta正式官宣,将在未来两年内推出四款全新MTIA系列自研AI芯片,创下远超行业平均水平的迭代速度。从已量产的MTIA 300,到计划2027年落地的MTIA 500,这一系列芯片将全面覆盖内容排序推荐、生成式 AI 推理等核心业务场景,成为Meta人工智能基础设施战略的核心支柱。
六个月一迭代
在传统半导体设计领域,一款芯片从立项到流片,通常需要历经18至24个月的漫长周期,而Meta此次却祭出了惊人的 “六个月一更新” 迭代速度,公布的技术路线图涵盖已量产的MTIA 300,以及后续的MTIA 400、450、500四代产品。
Meta敢于挑战行业常规,核心依托于高度的模块化与芯粒(Chiplet)设计。通过将计算、网络和输入输出(I/O)模块拆解为可重复使用的标准化组件,Meta得以像拼搭乐高积木一般,快速重构下一代芯片产品。这种小步快跑的研发节奏,确保其硬件技术能紧跟Llama系列等AI模型每半年一次的算法演进,彻底避免了 “硬件刚出厂,算法已落后” 的行业尴尬。
此外,MTIA芯片从研发之初,就基于PyTorch、vLLM、Triton等行业标准软件生态,以及开放计算项目(OCP)这一硬件标准体系构建,实现了芯片的无门槛落地应用。除软件层面的标准化外,MTIA芯片的系统及机架解决方案均符合开放计算项目(OCP)标准,能够无缝部署于各类数据中心。
从“推荐”到“生成”,算力底座的范式转移
此次发布的四款MTIA芯片,在应用场景上展现出清晰的进化逻辑:从支撑传统算法推荐,向全面赋能生成式AI完成技术升级,构建起适配Meta全业务的算力底座。
MTIA 300已率先实现量产,主要服务于Facebook、Instagram的核心盈利支柱 — 内容排名与推荐系统。该芯片拥有1.2 petaflops的MX8格式处理性能,搭载216GB高带宽内存(HBM),由1个计算芯片、2个网络芯片及多组HBM堆栈构成,其低延迟、高带宽的通信组件,为后续系列芯片的研发奠定了坚实技术基础。
MTIA 400(研发代号Iris)已完成实验室测试,即将进入部署阶段。其FP8浮点运算性能较MTIA 300提升400%,高带宽内存带宽提升51%,成为首款性能媲美主流商用AI 芯片的MTIA产品。据Meta介绍,该芯片可在单个服务器机架中部署72颗并实现协同工作,设计思路与英伟达NVL72、AMD Helios机架方案相近。
计划2027年初上线的MTIA 450,与2027年下半年推出的MTIA 500,则将核心聚焦于生成式AI推理任务。其中,MTIA 450将高带宽内存带宽提升一倍,并引入Meta自研的MX4低精度数据类型,使生成式AI处理的计算效率达到FP16的6倍;MTIA 500 则实现27.6 TB/s的内存带宽,达到前代产品的近3倍,几乎破解了AI推理过程中的所有内存墙瓶颈。
与主流芯片 “先适配预训练、再兼容推理” 的设计逻辑不同,MTIA 450和500以推理任务为核心优化方向,再按需覆盖内容排序推荐的训练与推理、生成式AI预训练等其他工作负载,大幅提升了算力利用的成本效益。
值得一提的是,Meta并未采取 “单一自研” 的算力布局,而是采用“自研芯片 + 外部采购”的组合策略:将MTIA系列作为AI基础设施的核心,同时与英伟达、AMD等行业头部厂商保持深度合作,通过多元化的算力供给,精准满足不同业务场景的算力需求。这一系列布局不仅能帮助Meta有效降低算力成本,更推动AI芯片行业从 “通用性能竞赛” 转向 “场景化定制” 的新赛道,为科技巨头自研AI芯片打造了全新范本。
来源: 与非网,作者: 史德志,原文链接: https://www.eefocus.com/article/1969007.html
1494