加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
  • 推荐器件
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

AI及HPC需求带动,预估2023年对HBM需求容量将年增近60%

2023/06/28
2149
阅读需 3 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

为解决高速运算下,存储器传输速率受限于DDR SDRAM带宽而无法同步成长的问题,高带宽存储器(High Bandwidth Memory,HBM)应运而生,其革命性传输效率是让核心运算元件充分发挥效能的关键。据TrendForce集邦咨询研究显示,目前高端AI服务器GPU搭载HBM已成主流,预估2023年全球HBM需求量将年增近六成,来到2.9亿GB ,2024年将再成长三成。

TrendForce集邦咨询预估到2025年,全球若以等同ChatGPT的超大型AIGC产品5款、Midjourney的中型AIGC产品有25款,以及 80款小型AIGC产品估算,上述所需的运算资源至少为145,600~233,700颗NVIDIA A100 GPU,再加上新兴应用如超级计算机、8K影音串流、AR/VR等,也将同步提高云端运算系统的负载,高速运算需求高涨。

由于HBM拥有比DDR SDRAM更高的带宽和较低的耗能,无疑是建构高速运算平台的最佳解决方案,从2014与2020年分别发布的DDR4 SDRAM及DDR5 SDRAM便可究其原因,两者频宽仅相差两倍,且不论是DDR5或未来DDR6,在追求更高传输效能的同时,耗电量将同步攀升,势必拖累运算系统的效能表现。若进一步以HBM3与DDR5为例,前者的带宽是后者的15倍,并且可以通过增加堆栈的颗粒数量来提升总带宽。此外,HBM可以取代一部分的GDDR SDRAM或DDR SDRAM,从而更有效地控制耗能。

TrendForce集邦咨询表示,目前主要由搭载NVIDIA A100、H100、AMD MI300,以及大型CSP业者如Google、AWS等自主研发ASIC的AI服务器成长需求较为强劲,2023年AI服务器出货量(包含搭载GPU、FPGA、ASIC等)出货量预估近120万台,年增率近38%,AI芯片出货量同步看涨,可望成长突破五成。

推荐器件

更多器件
器件型号 数量 器件厂商 器件描述 数据手册 ECAD模型 风险等级 参考价格 更多信息
ATMEGA328PB-AUR 1 Atmel Corporation RISC Microcontroller, CMOS,

ECAD模型

下载ECAD模型
$2.65 查看
PIC32MX795F512LT-80I/PF 1 Microchip Technology Inc 32-BIT, FLASH, 80 MHz, RISC MICROCONTROLLER, PQFP100, 14 X 14 MM, 1 MM HEIGHT, LEAD FREE, PLASTIC, TQFP-100

ECAD模型

下载ECAD模型
$12.72 查看
AT89C51ED2-RDTUM 1 Microchip Technology Inc IC MCU 8BIT 64KB FLASH 64VQFP

ECAD模型

下载ECAD模型
$18.07 查看

相关推荐

电子产业图谱