LPU

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

LPU,全称 Language Processing Unitix,是一种专门为语言处理任务设计的硬件处理器。

LPU,全称 Language Processing Unitix,是一种专门为语言处理任务设计的硬件处理器。收起

查看更多
  • GPU和LPU,谁才是AI“最优解”?读完这篇你也能说清
    AI芯片领域,英伟达GPU占据主导,但LPU作为专为大语言模型处理(LLM)设计的新架构,已经展现出其独特优势。GPU凭借广泛的应用和强大的通用计算能力,在多个AI任务中表现出色,而LPU则在LLM推理领域具有显著优势,尤其是在低延迟和高吞吐量方面。两者各有侧重,适用于不同应用场景。随着AI技术的发展,未来的AI算力可能会呈现出多样化和专业化的特点,不同任务使用最适合的硬件将成为趋势。
    660
    04/10 10:24
    GPU和LPU,谁才是AI“最优解”?读完这篇你也能说清
  • 功耗只有284mW的LPU,能跑大模型的吗?
    韩国公司推出一款名为LPU的AI推理芯片,采用4nm工艺,面积仅0.824平方毫米,功耗仅为284毫瓦。该芯片在LLM推理方面表现出色,处理能力远超NVIDIA H100,能效比H100高出33%。其独特架构包括优化的内存访问、智能数据调度、高效的计算引擎和扩展同步链接,使其在大规模模型推理中具有显著优势。尽管仍处于原型阶段,但LPU展示了专用AI芯片在特定领域的巨大潜力,并可能推动端侧推理AI芯片的发展。
    431
    04/02 11:02
    功耗只有284mW的LPU,能跑大模型的吗?
  • 引入LPU的英伟达,是在补强,还是在拆自己的护城河?
    GTC 2026落幕,英伟达宣布与AWS达成大规模芯片采购协议,预计2027年前完成交付。黄仁勋在会上提及的万亿美元营收目标正逐渐变为现实。值得注意的是,Groq芯片首次进入AWS数据中心,引发业界关注。三位半导体与AI算力领域专家讨论了LPU背后的经济与物理瓶颈,以及英伟达在推理时代的策略。他们认为,尽管LPU带来了变革,但其价值还需进一步评估。此外,英伟达持续加码整机柜算力,意图巩固客户心智地位。在软件方面,英伟达推出了NemoClaw软件栈,配套开源模型,展示了其在软件方面的领先地位。最后,几位嘉宾对未来国产算力产业链的发展提出了见解,强调了强链主的重要性以及对顶尖人才的重视。
    680
    04/01 17:19
    引入LPU的英伟达,是在补强,还是在拆自己的护城河?
  • 深度拆解Groq LPU架构:这颗让英伟达花200亿买下的芯片,到底凭什么?
    Groq的TSP架构通过功能分片和流编程模型实现了单批次推理的显著加速,相比传统架构提高了4倍的性能,同时降低了延迟。该架构摒弃了缓存和动态调度,采用确定性路径和静态调度,使得延迟更加可控,特别适合在线部署场景。
    611
    03/30 09:28
    深度拆解Groq LPU架构:这颗让英伟达花200亿买下的芯片,到底凭什么?
  • Groq LPU vs 其它CIM芯片:谁将成为AI推理时代存算一体芯片市场的最大赢家?
    英伟达推出Vera Rubin平台,采用异构计算架构,包括Vera CPU、Rubin GPU和Groq LPX,旨在解决大规模AI推理中的瓶颈。Groq LPX基于软件定义VLIW架构,利用SRAM实现高速解码。AI推理分为预填充和解码两阶段,前者注重并行处理,后者强调内存带宽和延迟。CIM技术通过在存储阵列内原位完成计算,消除数据搬运开销,提高能效。全球CIM芯片厂商如d-Matrix、Axelera AI、Mythic等各有所长,中国厂商如知存科技、后摩智能也在积极发展。CIM技术有望在未来AI基础设施中占据重要地位。
    Groq LPU vs 其它CIM芯片:谁将成为AI推理时代存算一体芯片市场的最大赢家?
  • GTC 2026 演讲精华:从LPU、Feynman、再到OpenClaw、NemoClaw
    英伟达GTC 2026大会展示了四大核心技术:LPU推理芯片、OpenClaw智能体生态系统、NemoClaw安全框架和Feynman前瞻架构。LPU解决了算力效率问题,OpenClaw定义了AI智能体的新范式,NemoClaw增强了安全性,而Feynman架构则着眼于未来的物理AI和通用人工智能。这些技术共同推动AI从训练竞赛迈向推理普惠,从数字生成走向物理交互。
    GTC 2026 演讲精华:从LPU、Feynman、再到OpenClaw、NemoClaw
  • 英伟达发布LPU芯片!AI推理等来「加速器」,GPU不再是唯一答案?
    英伟达发布全新Vera Rubin平台,重点展示LPU(Language Processing Unit)芯片,强调其在大模型推理中的高效性和低延迟特性。LPU采用SRAM方案,显著提升AI推理速度,适用于多任务场景下的实时交互。国产厂商如平头哥和昆仑芯也在探索类似技术路径,力求突破现有局限,提升本土AI算力市场竞争力。
    862
    03/20 11:39
  • 英伟达多元产品线分攻AI训练与推理需求,以应对CSP自研ASIC规模升级
    在大型云端服务供应商(CSP)加大自研芯片力道的情况下,NVIDIA(英伟达)在GTC 2026大会改为着重各领域的AI推理应用落地,有别于以往专注云端AI训练市场。通过推动GPU、CPU以及LPU等多元产品轴线分攻AI训练、AI推理需求,并借由Rack整合方案带动供应链成长。 TrendForce集邦咨询表示,随着以Google(谷歌)、Amazon(亚马逊)等CSP为首的自研芯片态势扩大,预估
    1705
    03/19 07:17
    英伟达多元产品线分攻AI训练与推理需求,以应对CSP自研ASIC规模升级
  • 双剑合璧!GPU+LPU 重构 AI 推理底层逻辑——GTC2026深度解析
    英伟达在GTC2026推出了一系列革新性AI计算架构和技术,包括Vera Rubin POD、Rubin GPU、Groq 3 LPU和Dynamo软件栈。Vera Rubin POD是一个七芯片协同的超级计算工厂,提供了高达60 Exaflops的AI计算能力和10 PB/s的纵向扩展带宽。Rubin GPU专为推理时代的预填充与训练设计,采用先进的3纳米制程工艺,提供50 PFLOPS的算力。Groq 3 LPU则是专门为低延迟的Token自回归解码设计,采用SRAM作为工作内存,提供高达80 TB/s的片上SRAM带宽。AFD架构将注意力与前馈网络解耦,提高了推理效率。Dynamo软件栈则提供了智能的KV缓存感知路由和多层次存储卸载方案,进一步优化了系统的性能和效率。这些技术共同构建了一个全新的AI推理基础设施,标志着英伟达在AI计算领域的重大突破。
    4534
    03/18 14:33
  • 巨额「收编」Groq,英伟达意欲何为?
    英伟达以200亿美元收购Groq,获取其独创的LPU芯片技术和团队,旨在弥补推理市场短板,巩固其在AI领域的领先地位。Groq的LPU架构具备低延迟、高能效和低成本的优势,有望在未来推理市场占据主导地位。此收购不仅加强了英伟达在推理市场的竞争力,还可能推动AI芯片生产门槛下降,影响整个行业格局。
    920
    01/13 17:06
    巨额「收编」Groq,英伟达意欲何为?
  • DeepSeek只是前菜,LPU才是王炸
    当下,人工智能蓬勃发展,创新技术不断涌出, 整个行业正经历着一场意义深远的变革。而这其中,DeepSeek 和 LPU 的出现格外引人注目。DeepSeek 凭借其卓越的性能和强大的成本优势,迅速在全球范围内圈粉无数,掀起了一股使用热潮。
    DeepSeek只是前菜,LPU才是王炸
  • Groq芯片的创新意义
    前一阵子,Groq芯片刷屏了,据说Groq芯片计算速度远远超过英伟达GPU,经网友测试,Groq每秒生成速度接近500 tok/s,碾压GPT-4的40 tok/s。Groq是一家成立于2016年的AI创企,据其官网介绍,LPU是一种专为AI推理所设计的芯片。LPU的工作原理与GPU截然不同。它采用了时序指令集计算机(Temporal Instruction Set Computer)架构,这意味着它无需像使用高带宽存储器(HBM)的GPU那样频繁地从内存中加载数据。
    Groq芯片的创新意义
  • AI芯片的一百种死法
    前几天,英伟达成为首家市值达到2万亿美金的芯片公司,创造了历史。同一时间,一家名为Groq的初创公司横空出世,扬言“三年之内赶超英伟达”。Groq狠话的底气,来源于它所开发的芯片——LPU。
    AI芯片的一百种死法
  • AI芯片黑马一夜爆红:成本推算争议不断,前员工现员工互撕
    2月21日报道,在OpenAI推出又一爆款力作AI视频生成模型Sora后,连带着偏上游的AI芯片赛道热度一点即着。创始成员来自谷歌TPU团队的美国存算一体AI芯片公司Groq便是最新赢家。这家创企自称其自研AI推理引擎LPU做到了“世界最快推理”,由于其超酷的大模型速度演示、远低于GPU的token成本,这颗AI芯片最近讨论度暴涨。连原阿里副总裁贾扬清都公开算账,分析LPU和H100跑大模型的采购和运营成本到底差多少。
    AI芯片黑马一夜爆红:成本推算争议不断,前员工现员工互撕

正在努力加载...