扫码加入

TPU

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。

张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。收起

查看更多

设计资料

查看更多
  • 算力大洗牌:GPU、TPU与“高阶TPU”的终极博弈
    AI算力竞争加剧,GPU、TPU与高阶TPU三足鼎立。GPU虽通用但效能不足,TPU专精于AI运算,高阶TPU则兼具灵活性与高效性。英伟达收购Groq,凸显可重构计算的重要性。国产企业在高阶TPU领域积极布局,有望打破GPU垄断。
    1465
    03/11 09:44
    算力大洗牌:GPU、TPU与“高阶TPU”的终极博弈
  • 全球算力格局震荡,“高阶TPU”崛起!
    近日,多家外媒报道,非GPU芯片应用迎来爆发期,Meta与谷歌签署数十亿美元合作,大规模租用TPU训练模型;OpenAI计划导入英伟达基于Groq技术的AI推理芯片。谷歌计划在2027年部署600-700万颗TPU,大部分将供给Anthropic、OpenAI、Meta以及苹果等外部客户。OpenAI上线GPT-5.3-Codex-Spark,选择了Cerebras芯片进行推理任务,带来了更低延迟与更低能耗。面对日益清晰的算力变局,AI的竞争焦点正从单纯的算力规模,深刻转向对能效比与延迟的极致追求。
    780
    03/03 15:12
    全球算力格局震荡,“高阶TPU”崛起!
  • 受谷歌高速互连架构带动,预估2026年800G以上光收发模块占比将突破60%
    为应对AI所需的庞大运算需求,Google(谷歌)新世代Ironwood机柜系统结合3D Torus网络拓扑、Apollo OCS全光网络,实现高速互连架构,将推升800G以上高速光收发模块在全球出货占比,预估将自2024年的19.5%上升至2026年的60%以上,并逐渐成为AI数据中心的标准配备。 在搭配全光网络交换机OCS(optical circuit switch)的架构下,Ironwoo
    1298
    02/10 14:40
    受谷歌高速互连架构带动,预估2026年800G以上光收发模块占比将突破60%
  • TPU 的成功,是否正在宣告“GPU + CUDA 时代”的终结?
    文章讨论了GPU和TPU两种计算架构的特点及其在不同场景下的适用性。GPU以其通用性和强大的软件生态系统著称,适用于广泛的应用领域;而TPU则通过垂直整合的方式,在大规模训练和推理方面展现出更高的性能和能效,尤其是在云计算环境中。尽管TPU在某些方面优于GPU,但在通用市场中两者仍会长期共存,形成互补关系。文章最后提出,对于大型云计算环境,垂直整合的TPU架构具有明显的长期竞争优势,而对于普通应用场景,则继续保持GPU的优势地位。
    847
    01/19 10:27
    TPU 的成功,是否正在宣告“GPU + CUDA 时代”的终结?
  • 什么是TPU
    TPU是由Google专为人工智能计算定制的超级计算芯片。它专注于高效、节能地执行大规模重复计算任务,类似于专门制作汉堡的自动化生产线。相比CPU和GPU,TPU在处理AI计算时具有更高的效率和更低的成本。由于其针对性的设计,TPU能够显著降低AI计算的能耗和成本,从而推动AI技术的普及和应用。
    什么是TPU