扫码加入

TPU

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。

张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。收起

查看更多
  • 算力大洗牌:GPU、TPU与“高阶TPU”的终极博弈
    AI算力竞争加剧,GPU、TPU与高阶TPU三足鼎立。GPU虽通用但效能不足,TPU专精于AI运算,高阶TPU则兼具灵活性与高效性。英伟达收购Groq,凸显可重构计算的重要性。国产企业在高阶TPU领域积极布局,有望打破GPU垄断。
    1498
    03/11 09:44
    算力大洗牌:GPU、TPU与“高阶TPU”的终极博弈
  • 全球算力格局震荡,“高阶TPU”崛起!
    近日,多家外媒报道,非GPU芯片应用迎来爆发期,Meta与谷歌签署数十亿美元合作,大规模租用TPU训练模型;OpenAI计划导入英伟达基于Groq技术的AI推理芯片。谷歌计划在2027年部署600-700万颗TPU,大部分将供给Anthropic、OpenAI、Meta以及苹果等外部客户。OpenAI上线GPT-5.3-Codex-Spark,选择了Cerebras芯片进行推理任务,带来了更低延迟与更低能耗。面对日益清晰的算力变局,AI的竞争焦点正从单纯的算力规模,深刻转向对能效比与延迟的极致追求。
    777
    03/03 15:12
    全球算力格局震荡,“高阶TPU”崛起!
  • 受谷歌高速互连架构带动,预估2026年800G以上光收发模块占比将突破60%
    为应对AI所需的庞大运算需求,Google(谷歌)新世代Ironwood机柜系统结合3D Torus网络拓扑、Apollo OCS全光网络,实现高速互连架构,将推升800G以上高速光收发模块在全球出货占比,预估将自2024年的19.5%上升至2026年的60%以上,并逐渐成为AI数据中心的标准配备。 在搭配全光网络交换机OCS(optical circuit switch)的架构下,Ironwoo
    1311
    02/10 14:40
    受谷歌高速互连架构带动,预估2026年800G以上光收发模块占比将突破60%
  • TPU 的成功,是否正在宣告“GPU + CUDA 时代”的终结?
    文章讨论了GPU和TPU两种计算架构的特点及其在不同场景下的适用性。GPU以其通用性和强大的软件生态系统著称,适用于广泛的应用领域;而TPU则通过垂直整合的方式,在大规模训练和推理方面展现出更高的性能和能效,尤其是在云计算环境中。尽管TPU在某些方面优于GPU,但在通用市场中两者仍会长期共存,形成互补关系。文章最后提出,对于大型云计算环境,垂直整合的TPU架构具有明显的长期竞争优势,而对于普通应用场景,则继续保持GPU的优势地位。
    878
    01/19 10:27
    TPU 的成功,是否正在宣告“GPU + CUDA 时代”的终结?
  • 什么是TPU
    TPU是由Google专为人工智能计算定制的超级计算芯片。它专注于高效、节能地执行大规模重复计算任务,类似于专门制作汉堡的自动化生产线。相比CPU和GPU,TPU在处理AI计算时具有更高的效率和更低的成本。由于其针对性的设计,TPU能够显著降低AI计算的能耗和成本,从而推动AI技术的普及和应用。
    什么是TPU
  • AI硬件全景解析:CPU、GPU、NPU、TPU的差异化之路,一文看懂!
    开篇:AI硬件的“分工时代”已经到来 当AI从实验室走向日常——从手机的实时翻译到数据中心的模型训练,从游戏的光线追踪到自动驾驶的环境感知,单一硬件已难以承载多样化的计算需求。传统CPU的“全能”模式逐渐被“专芯专用”取代,CPU、GPU、TPU、NPU各自锁定专属赛道,共同构成AI时代的硬件基石。本文将拆解这四类核心处理器的技术特性、应用场景及选择逻辑,帮你理清“什么场景该用什么硬件”的底层逻辑
    2万
    01/06 09:33
  • 谷歌TPU产量预测: 2027年达500万块
    摩根士丹利预计Alphabet的TPU产量将在未来几年大幅增长,预计到2027年产量可达500万块,2028年增至约700万块,这将为公司带来数十亿美元的新增收入并推动每股收益提升。分析师认为,TPU供应的改善将为谷歌提供更多商业机会,尤其是向第三方数据中心运营商销售TPU,从而加强其云计算业务。
    472
    2025/12/03
    TPU
    谷歌TPU产量预测: 2027年达500万块
  • 【光电共封CPO】谷歌TPU+ICI技术能否撼动英伟达AI算力霸主地位?
    Google推出TPUv7芯片,凭借其卓越的系统性能和大规模扩展能力,挑战英伟达的GPU霸主地位。TPUv7具备4.6 PFLOPS算力和192GB HBM3e内存,通过ICI技术实现高效互联,降低总拥有成本(TCO),并借助自研的光电路交换机(OCS)和Circulators技术,进一步优化性能和成本效益。
    【光电共封CPO】谷歌TPU+ICI技术能否撼动英伟达AI算力霸主地位?
  • 中国新型TPU登场,瞄准英伟达AI芯片主导地位
    中国AI芯片初创企业中昊芯英推出自主研发的张量处理单元(TPU),性能超越英伟达A100,功耗更低,成本更优,助力中国“去美国化”。公司由前谷歌TPU研发人员创办,拥有自主知识产权,未来有望成为国内AI芯片市场的关键替代选择。
    中国新型TPU登场,瞄准英伟达AI芯片主导地位
  • 53亿!“英伟达平替”获新融资
    美国AI芯片独角兽Groq获7.5亿美元新融资,投后估值达69亿美元,计划扩大数据中心容量并加速全球业务布局。Groq的LPU芯片能效比其他系统高出10倍,适用于大模型优化,已适配主流开源模型并在云平台上提供服务。尽管去年底预测2025年营收超20亿美元,但因数据中心容量不足,今年下半年多次下调预期至5亿美元。
    53亿!“英伟达平替”获新融资
  • 这一战,谷歌准备了十年
    谷歌开始对外出售TPU,试图抢夺英伟达在AI计算领域的市场份额。谷歌TPU专为AI计算设计,具备高能效比和低功耗特点,能够有效降低AI推理任务的成本。谷歌通过构建TPU生态系统,包括JAX和Pathway等工具,增强了其竞争力。尽管英伟达在CUDA生态上有明显优势,但谷歌凭借TPU的性能和成本优势,正逐渐成为其有力竞争对手。这场战役不仅是两家公司在硬件上的较量,也是对未来AI计算市场格局的影响。
    这一战,谷歌准备了十年
  • ASIC市场,越来越大了
    ASIC市场在增长。这一点早已达成业内共识。但令人意外的是,ASIC增长的速度实在是太快了。摩根士丹利预计,AI ASIC市场规模将从2024年的120亿美元增长至2027年的300亿美元,年复合增长率达到34%。
    ASIC市场,越来越大了
  • 谷歌TPU处理器
    谷歌的张量处理单元(TPU,Tensor Processing Unit)是一种专门为深度学习应用设计的硬件加速器。它的开发源于谷歌对其人工智能(AI)和机器学习应用的需求,尤其是深度学习中的神经网络计算。
    谷歌TPU处理器
  • 3nm赛道,挤满了ASIC芯片
    作者:九林 最近,市场关注的两家ASIC企业都发布了自家的财报。 博通2025财年第一季度财报显示,营收149.16亿美元,同比增长25%,净利润55.03亿美元,同比增长315%。其中,第一季度与AI有关的收入同比增长77%至41亿美元。 Marvell预计第一财季销售额约为18.8亿美元,同比增长27%。其中,AI业务收入达7亿美元左右,主要是亚马逊等客户定制ASIC等产品需求增长的带动。 A
    3nm赛道,挤满了ASIC芯片
  • 强攻GPU,TPU芯片一夜蹿红
    自ChatGPT爆火之后,AI大模型的研发层出不穷,而在这场“百模大战”激战正酣之际,美国芯片公司英伟达却凭借其GPU在大模型计算中的出色发挥赚得盆满钵满。
    强攻GPU,TPU芯片一夜蹿红
  • 围攻英伟达,三大巨头的芯片再出招!
    替换英伟达,甚至说干掉英伟达已经不是什么新鲜事了。凭借其GPU的领先优势,英伟达过去几年炙手可热,乘着ChatGPT热潮,公司的市值从今年年初至今更是大涨了93.6%,过去五年的涨幅更是达到惊人的385%。虽然GPU是英伟达的最重要倚仗,但这绝不是美国芯片“当红炸子鸡”的唯一武器。
  • 落实“人工智能+”,人工智能芯片标准化是关键
    人工智能热潮正在席卷各行各业,无论是自动驾驶、物联网、智能硬件、智能家居等新兴产业,还是安防、医疗、矿山等传统业态,都开始频繁接触人工智能。“人工智能+”的概念正在落到实处。
  • 利用AI可在6小时内设计出芯片?谷歌再曝黑科技
    近日,Google AI 负责人Jeff Dean和谷歌研究部门声称可以平均在 6 个小时内完成芯片的设计。    
    47
    1评论
    2020/04/28

正在努力加载...