AI加速器

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论
  • 翻过英伟达的“围墙”,就是国产芯片的蓝海?
    英伟达在中国AI加速器市场份额趋近于零,引发市场震动。随着美国对华芯片出口管制加剧,英伟达被迫转向间接销售渠道,导致中国AI算力市场出现空缺。国产AI芯片制造商如华为昇腾、寒武纪、海光等开始填补这一缺口,推动国产替代供应链快速发展。同时,汽车制造行业受到芯片价格上涨的影响,迫使车企加快自研芯片的步伐,寻求供应链自保。资本市场上,国产芯片厂商股价飙升,反映出市场对其前景的信心。然而,国产芯片在高端制程和软件生态方面仍存在差距,需克服技术和生态上的瓶颈。总体而言,这场变革标志着全球半导体产业链的结构性重组,开启了技术路线、产业安全和商业博弈的新阶段。
  • 为什么AI需要专门的硬件加速?从GPU,TPU到LPU的技术演进全景
    AI硬件加速的原因在于神经网络计算的特点:计算密度高、并行性强且控制逻辑简单。GPU因其SIMT执行模型、深多线程隐藏延迟和成熟软件生态成为当前事实标准。TPU/NPU和ASIC分别针对特定场景优化,而FPGA具有可重构特性,适合边缘推理和快速架构实验。LPU专为大模型推理服务设计,注重内存管理和延迟。未来AI硬件的发展趋势包括内存瓶颈、软硬协同设计和场景专业化。
    为什么AI需要专门的硬件加速?从GPU,TPU到LPU的技术演进全景
  • 内存墙之痛:为什么AI加速不能只靠堆计算单元?
    AI加速的关键瓶颈在于数据搬运、通信和不规则算子,而非单纯的计算能力。当前硬件加速解决方案虽多样,但普遍面临内存带宽、延迟、面积和成本等方面的挑战。无论是GPU、TPU、ASIC还是新型架构,其性能受限于数据传输效率,而非单纯计算能力。因此,有效优化应集中在减少数据移动,提高内存和通信效率上。
  • TPU、Maia、Trainium、MTIA:四大云厂商围堵英伟达,推理算力不再姓“黄”?
    AI加速器市场在未来十年将出现明显的分化,通用GPU(如英伟达)将继续主导训练市场,而定制ASIC(如云厂商自研)则将在推理市场占据主导地位。预计到2033年,AI加速器市场的总规模将达到6040亿美元,其中通用GPU的年复合增长率约为16.1%,而定制ASIC的增长率为44.6%。 四大云厂商(谷歌、微软、亚马逊、Meta)纷纷推出自家定制的AI加速器,如谷歌的TPU v7 Ironwood、微软的Maia 200、亚马逊的Trainium 3和Meta的MTIA。这些芯片在性能、功耗和成本方面各有优势,特别是定制ASIC在推理领域的成本效益更为突出。 英伟达推出了Vera Rubin架构,试图在推理市场上夺回部分市场份额,但面对定制ASIC的竞争,英伟达的CUDA生态系统仍然是其主要优势。然而,随着定制ASIC的普及,英伟达在推理市场的份额可能会大幅下降。 此外,台积电的3nm工艺成为各大厂商争夺的关键资源,导致芯片产能紧张。数据中心的基础设施也需要相应调整,以适应不同类型的AI加速器,包括散热、互联和组网等方面的变化。 对于基础设施规划师、运维团队和战略决策者而言,未来的数据中心将面临更多挑战,需要制定相应的应对策略,以确保高效运行。
    TPU、Maia、Trainium、MTIA:四大云厂商围堵英伟达,推理算力不再姓“黄”?
  • 算力不是瓶颈?AI加速器的真正命门在这里
    AI加速器的性能瓶颈早已不再是计算单元本身,而在于内存和互联架构。随着大模型的兴起,内存带宽和延迟成为关键挑战。当前AI加速器采用多种创新技术应对这一难题,包括高带宽内存HBM、片上网络NoC、3D堆叠计算、近存计算和存内计算、多芯片互联等。新的三维分类框架将AI加速器分为六个类别,强调内存架构、互联拓扑和集成策略的重要性。未来,chiplet架构、先进封装技术和近存/存内计算有望进一步推动行业发展。
    算力不是瓶颈?AI加速器的真正命门在这里
  • 数据中心芯片,更香了!
    数据中心,是一个热词。在最近一个季度,英伟达、博通、AMD、英特尔、Marvell、SK海力士、美光和三星的数据中心相关出货量超过了 2200 亿美元的年出货量(不包括电源芯片)。随着 LLM 的快速扩展,预计到 2030 年数据中心的半导体支出将超过 5000 亿美元,占整个半导体行业的 50% 以上。那么,哪一系列芯片又会随着数据中心的走红同步受益?在此之前,先来了解一下数据中心。
    数据中心芯片,更香了!
  • 红帽推出llm-d社区,赋能大规模分布式生成式AI推理
    该项目让生产型生成式AI像Linux一样无处不在,与创始贡献者CoreWeave、Google Cloud、IBM Research和NVIDIA合作打造,携手行业领导者AMD、思科、Hugging Face、英特尔、Lambda和Mistral AI,并获得了来自加州大学伯克利分校和芝加哥大学的支持 全球领先的开源解决方案提供商红帽公司近日宣布启动全新开源项目llm-d,以满足生成式AI(gen
  • 贸泽开售采用先进视觉AI技术的Renesas RZ/V2N微处器
    专注于引入新品并提供海量库存™的电子元器件代理商贸泽电子 (Mouser Electronics) 即日起开售Renesas Electronics的RZ/V2N嵌入式AI微处理器 (MPU)。RZ/V2N MPU兼顾了高性能和经济性,能够让更多用户将视觉AI技术部署到其应用中。多功能RZ/V2N MPU非常适合人工智能摄像头、漫游机器人、后装行车记录仪以及其他需要高级嵌入式处理能力的应用。 Re
    贸泽开售采用先进视觉AI技术的Renesas RZ/V2N微处器
  • 具身智能浪潮反思:中国制造业需要什么样的协作机器人?
    随着具身智能浪潮席卷全球,机器人行业的发展备受关注。今年两会期间,国家对人工智能创新的大力支持,为机器人产业注入了强劲动力。同时,中国人工智能企业取得的重要突破,也让市场对机器人发展与应用充满期待。 在这一背景下,全球协作机器人制造商优傲机器人(以下简称“优傲”)认为,无论AI在机器人技术上的应用最终表现形态如何,工业机器人落地离不开三重核心技术能力:安全稳定、灵活易用、持续创新。 产品多元,安全
    具身智能浪潮反思:中国制造业需要什么样的协作机器人?
  • 泰瑞达机器人携前沿AI驱动解决方案,亮相NVIDIA GTC 2025,开创 AI协作机器人先河
    泰瑞达机器人及其合作伙伴在NVIDIA GTC 2025 技术大会上,共同推出全新的 AI 驱动机器人解决方案。作为全球开发者人工智能领域的盛会,GTC 2025 由NVIDIA主办,主要展示和交流人工智能、加速计算等前沿技术及应用的重要平台。此次发布标志着 AI加速器在商业可行应用中的首次公开演示。 泰瑞达机器人首席 AI 官James Davidson表示:“物理 AI 为机器人赋予了感知和响
    泰瑞达机器人携前沿AI驱动解决方案,亮相NVIDIA GTC 2025,开创 AI协作机器人先河
  • 独立Altera回归!AI时代FPGA如何继续远航?
    Altera从独立FPGA供应商,到被Intel收购,再到重新独立运营,FPGA市场已经经历了快速变化,不只是收购整合改变了原有竞争格局,市场、产业、应用领域的竞争也更加激烈。与此同时,AI也带来了新的机遇和挑战,FPGA赛道竞争激烈,不仅面临着传统FPGA对手的竞争,某些场景下还要和GPU、ASIC等芯片比拼加速计算能力。
    1393
    2025/03/13
  • 马斯克Grok 3和DeepSeek巅峰对决,如何重塑AI芯片战场?
    随着Grok 3的推出,AI大模型似乎迎来巅峰对决的时刻。Grok 3和DeepSeek不仅在技术上各具特色,更在应用场景和算力需求等方面展现出了各自的特色和潜力。一个是偏向于大算力的通用巨模型,一个是算法优化主导的高效模型范式,它们的发展和应用亦将深刻影响着未来的算力趋势和AI芯片的走向。
    1190
    2025/02/21
  • 更低成本、更高效率:英特尔Gaudi 2D面向DeepSeek优化
    DeepSeek发布Janus Pro模型,其超强性能和高精度引起业界关注。英特尔® Gaudi 2D AI加速器现已针对该模型进行优化,这使得AI开发者能够以更低成本、更高效率实现复杂任务的部署与优化。
  • 如何利用业界首发的超以太网和UALink IP,高效互连技术扩展HPC和AI加速器生态系统
    任何单个GPU、XPU或其他AI加速器都无法满足AI工作负载的巨大计算需求。为了满足这一需求,需要成千上万个,甚至不久的将来可能需要数十万个这样的加速器协同工作,共同分担处理负载。
    1276
    2025/01/07
    如何利用业界首发的超以太网和UALink IP,高效互连技术扩展HPC和AI加速器生态系统
  • 三星又获2nm订单,良率优于预期?
    三星电子赢得了日本人工智能 (AI) 半导体公司 Preferred Networks (PFN) 的 2 纳米 AI 加速器订单,还收到韩国某神经网络处理单元(NPU)公司的芯片订单。三星代工厂(半导体代工生产)的2纳米工艺目前正在进行量产测试,据悉,与屡次失败的3纳米工艺相比,初期良率优于预期。
    三星又获2nm订单,良率优于预期?
  • Rambus宣布推出业界首款HBM4控制器IP,加速下一代AI工作负载
    作为业界领先的芯片和半导体IP供应商,致力于使数据传输更快更安全,Rambus Inc.(纳斯达克股票代码:RMBS)今日宣布推出业界首款HBM4内存控制器IP,凭借广泛的生态系统支持,扩展了其在HBM IP领域的市场领导地位。这一全新解决方案支持HBM4设备的高级功能集, 使设计人员能够应对下一代AI加速器和图形处理器(GPU)对内存带宽所提出的苛刻需求。 Rambus高级副总裁兼半导体IP部门
    Rambus宣布推出业界首款HBM4控制器IP,加速下一代AI工作负载
  • 英特尔至强处理器在AISBench测试中展现卓越AI大模型推理性能
    近期,第五代英特尔®至强®可扩展处理器通过了中国电子技术标准化研究院组织的人工智能服务器系统性能测试(AISBench)。英特尔成为首批通过AISBench大语言模型(LLM)推理性能测试的企业。 中国电子技术标准化研究院赛西实验室依据国家标准《人工智能服务器系统性能测试规范》(征求意见稿)相关要求,使用AISBench 2.0测试工具,完成了第五代英特尔至强可扩展处理器的AI大模型推理性能和精度
    英特尔至强处理器在AISBench测试中展现卓越AI大模型推理性能
  • 台达研究院阙志克:降伏AI训练“吃电怪兽”靠谁?
    数据中心机房内,一排排机柜内线缆虬结、风扇呼啸,灯光闪烁,彻夜不息……当前,这样的数据中心已经遍及世界各地,并仍然在世界头部科技厂商的引领下不断增长。仅在今年6月内,微软就已宣布将在瑞典、马来西亚、西班牙等国家投资建设数据中心,项目投资总金额超140亿美元;同时,英伟达计划在未来5年内投资3万亿美元建设数据中心;亚马逊云科技则规划在未来15年内投入约1500亿美元用于全球数据中心的建设与运营……
    台达研究院阙志克:降伏AI训练“吃电怪兽”靠谁?
  • Rambus通过GDDR7内存控制器IP推动AI 2.0发展
    作为 Rambus 行业领先的接口和安全数字 IP 产品组合的最新成员,GDDR7 内存控制器将为下一波AI推理浪潮中的服务器和客户端提供所需的突破性内存吞吐量。
  • AI加速是RISC-V的第一增长力
    根据市场研究机构SHD Group的数据显示:2023年,SoC市场全球总出货量将达到13亿颗,相比2022年增长134.5%;到2030年,基于 RISC-V的SoC出货量将急剧增加至162亿颗,相应营收预计达到920亿美元,复合年增长率分别高达44%和47%。
    1640
    2024/04/16
    AI加速是RISC-V的第一增长力

正在努力加载...