英伟达(NVIDIA)并购Arm的起手势终于明朗就是跨足-CPU。今年GTC宣布推出首个采用Arm Nerverse超算微架构的资料中心中央处理器(CPU),由新一代频宽高达900GB/s的NVLink,NVIDIA Grace得以在多个CPU与GPU之间共享资料与记忆体,突破现行GPU受制PCIe频宽难以高速存取系统记忆体的限制,针对人工智慧(AI)与高效能运算作业负载的效能宣称可达当今最快之服务器的十倍。

 

NVIDIA Grace CPU进军资料中心/超级电脑高效能运算领域

 

一直以来在资料中心高效能运算都与Intel、AMD合作的NVIDIA,在获得Arm架构奥援之后,正式挥军超级电脑高效能运算领域,NVIDIA Grace CPU旨在满足应用程式的运算需求,包括自然语言处理、推荐系统与 AI 超级运算,由于这些应用必须分析庞大的资料集,因此需要快速的运算效能与大量的记忆体。Grace CPU整合节能的Arm CPU核心与创新的低功率记忆体次系统,达到高效能且节能的设计。

 

NVIDIA 创办人暨执行长黄仁勳在2021年CTC Keynote演讲表示,AI与资料科学正在推进当今电脑架构的极限,因为要处理的资料量多到无法想像。NVIDIA采用授权的Arm IP打造出专为大型AI与高效能运算设计的Grace CPU。结合GPU与DPU,Grace成为NVIDIA第三个基础运算技术,以及重新架构资料中心并推进AI的能力。NVIDIA现在是提供三种晶片的公司,正式叫板Intel与AMD占据的高效能运算处理器市场。

 

NVIDIA未来将发展CPU、DPU、GPU三种基础运算平台

 

Grace是具高度特定性的处理器,专为如训练超过一兆个参数的次世代自然语言处理模型的作业负载所设计。一套基于Grace架构的系统与NVIDIA GPU紧密结合,将提供较当今基于 x86 CPU运行的最顶尖NVIDIA DGX架构系统,十倍的效能提升。

 

NVIDIA认为,预计绝大多数的资料中心将继续由现有的CPU提供服务,而为纪念美国电脑程式设计先驱Grace Hopper而命名的Grace CPU,将服务特定的运算领域。瑞士国家超级运算中心(CSCS)与美国能源部的洛斯阿拉莫斯国家实验室(Los Alamos National Laboratory),率先宣布计划打造采用Grace的超级电脑并计划于 2023 年,让采用 Grace 并由慧与科技(Hewlett Packard Enterprise)所打造的超级电脑正式上线,以支援国家级的科学研究。

 

由于资料量与AI模型大小呈指数成长,当今最大型的AI模型包含数十亿个参数,且每两个半月就会增加一倍。训练这些模型需要一个能与GPU紧密结合的全新CPU,才能消除系统瓶颈。NVIDIA利用Arm资料中心架构的弹性来打造Grace。

 

Grace导入第四代NVIDIA NVLink互联技术,可以在Grace CPU与NVIDIA GPU间,提供900GB/s连结传输速度,Grace也将采用LPDDR5x记忆体次系统,与DDR4记忆体相比,提供两倍的频宽以及十倍的能源效率。此外,全新的架构利用单一记忆体位址空间,提供统一的快取记忆体一致性,并结合系统与高频宽记忆体(HBM)GPU,简化可编程性。NVIDIA Grace CPU预计将于2023年年初上市。