在英伟达GTC大会期间的全球媒体/分析师电话会议中,英伟达CEO黄仁勋首次提出“四大支柱”,并就“与Arm生态的合作、以及新趋势下处理器的发展”等问题回应了与非网。

 

首提“四大支柱”

 

黄仁勋提出,四大技术正在影响未来,也正在成为英伟达重要的发展支柱。

 

一是云原生平台NVIDIA Omniverse,他表示,人类与AI和机器人共存的虚拟实时3D世界不再只是科幻小说中的故事情节,通过Omniverse可以创建共享的虚拟3D世界。为了实现这一点,Omniverse现可扩展至多个GPU、具有高物理精度、能够充分运用RTX实时路径追踪等技术,并且与NVIDIA AI完全集成。今年夏季开始,英伟达还将提供Omniverse企业授权许可,进一步扩大应用范围。

 

二是围绕云原生AI服务的计算需求,英伟达正在从底层进行自下而上的颠覆创新。全新的AI计算机DGX双管齐下,包括便携式AI数据中心DGX Station,以及为密集型AI研发打造的AI数据中心产品NVIDIA DGX SuperPod;搭载Aerial A100的NVIDIA EGX服务器,是业界首个具备云原生技术、安全性和AI边缘数据中心能力的5G基站;此外,还有量子电路模拟框架CuQuantum,这是专为模拟量子电路而设计的加速库,更适合大GPU显存、多GPU和多DGX节点所需。

 

还有面向数据中心的两款芯片:一款是全球首款专为TB级加速计算而设计的CPU Grace,另一款是专为现代超大规模云技术基础架构而生的DPU BlueField。至此,英伟达的数据中心路线图将由三种芯片组成:CPU、GPU、DPU,三类芯片,每年一次飞跃。

 

 

三是将AI扩展到边缘应用。我们现在正处于第二轮AI发展浪潮的起点,这波发展将以企业和产业边缘计算为主,AI将彻底改变全球大型行业,包括制造、物流、农业、医疗健康、金融服务和运输业。他表示,英伟达的AI服务尚未完全覆盖每一个计算领域,而下一个重点就是企业计算。面向企业级的NVIDIA EGX,将继续扩大NVIDIA-Certified认证服务器生态系统,使得企业用户的使用和部署更为便捷。

 

四是自动驾驶。黄仁勋表示,将于2022年投产的NVIDIA自动驾驶汽车计算系统级芯片NVIDIA DRIVE Orin,旨在成为汽车的中央电脑。最新发布的新一代车载系统级芯片NVIDIA DRIVE Atlan,将为汽车带来真正的数据中心。对于Atlan,黄仁勋寄予厚望,声称“Atlan集英伟达在AI、汽车、机器人、安全和BlueField安全数据中心领域技术之大成”,而现在,它已“整装待发,将带来新一轮的巨大飞跃。”


与Arm生态彼此需要、互相借力

 

根据此次GTC上释出的消息,英伟达与Arm生态的合作全面覆盖了云、高性能计算、边缘、企业级计算、PC,这是否是并购进展顺利的一个讯号?两个生态未来的交融又有哪些计划?

 

“这将是非常的重要一步”,黄仁勋表示,“Arm在嵌入式和移动设备领域取得了巨大的成功,一是因为技术效能非常好,二是因为其专利许可模式,有很强的可塑性,用户可以基于其IP打造自己想要的任何产品,来满足市场上多种多样的需求。这是Arm的成功之处,可以说Arm打造出了芯片上的城市(SoC)”。

 

他指出,这两大驱动因素发挥得最好的领域就是嵌入式和移动设备,SoC的理念对Arm来说非常重要,保证了Arm作为中央处理的核心利益。但是,数据中心是截然不同的领域,不论是云数据中心、应用数据中心还是边缘数据中心等,充满了多个第三方软件、第三方外围设备。在SoC的世界中,设计者拥有软件和堆栈,但是在数据中心,这一切是完全整合的,也更容易被分解开。

 

也正是如此,黄仁勋表示,在数据中心的世界中,需要新的系统、软件、生态、合作伙伴以及新的投资组合,而这些都是英伟达所擅长的。Arm生态系统中的公司,正在蓄力进入云、超级计算等新领域,而英伟达致力于将Arm生态系统扩展到移动和嵌入式系统以外的市场。

 

谈到对Arm的收购进展,黄仁勋表示目前非常顺利,正在配合美国、欧洲和亚洲的监管机构,进一步解释Arm未来的发展愿景,以及双方合作将给市场带来的更多创新。他补充,Arm将会继续保持开放授权的模式,两家公司合并,将会加速他在这方面的投资。

 

不论是黄仁勋对收购一直表现出来的乐观态度,还是从两个生态交融目前取得的实质性成果来看,大方向上的进展都很顺利。

 

本次GTC上公布的合作包括:NVIDIA GPU与基于AWS Graviton2的Amazon EC2实例相结合,双方将共同在云端部署由GPU加速的基于Arm的实例;发布了搭载Arm CPU的开发者套件,便于开发者和ISV合作伙伴使用;与Marvell合作,将OCTEON DPU与GPU相结合,加速云、企业、运营商和边缘应用;在PC领域,与全球最大的基于Arm的SoC供应商之一联发科合作,打造支持Chromium、Linux和NVIDIA SDK的参考平台。

 


英伟达推出CPU,对全球处理器格局意味着什么?

 

英伟达首次发布了一款CPU——Grace,主要面向大型数据密集型HPC和AI应用。GPU霸主推出一款高性能CPU,这对英伟达自身和全球处理器供应商意味着什么?它是否会成为一款改变处理器现有游戏格局的产品?

 

黄仁勋表示,确实是游戏的玩法在改变,但这款产品肩负的使命并不是改变游戏规则,而是要解决问题,当前所面临的根本问题是数据处理需求增长太快,超出了现有的系统内存、带宽等负荷。

 

 “处理大量数据是当今计算机系统面临的一大挑战,对于transformer和推荐系统等AI模型来说尤为如此,新一代自然语言处理(NLP)模型的训练会有超过一万亿的参数。但是在实际应用中,GPU受限于数据中心系统中现有的CPU内存和PCIe带宽,更快的NVLINK又不被x86 CPU所支持”,黄仁勋指出。

 

因此,与其说英伟达推出了一款CPU处理器,不如说,是为自己的GPU系统量身打造了一款高度专用的处理器。

 

在GTC Keynote中,黄仁勋详述了这款专用CPU为系统带来的改变。他以1/2的DGX说明了系统目前的瓶颈所在:每个Ampere GPU都连接到80GB的超快速显存,运行速度为2TB/秒,加在一起,即4个Ampere以每秒8TB的速度处理320GB的显存。与之形成对比的是,CPU内存为1TB,但速度仅为每秒0.2TB,CPU内存比GPU大3倍,速度比GPU慢40倍。

 

基于此,英伟达提出了一个大胆的设想:如果能够用该节点的全部1320GB内存来训练AI模型,需要做什么?答案就是更快的CPU。通过建立四条直连CPU的通道,每个GPU都有了一个专用通道。基于Arm下一代服务器IP的Grace,与英伟达GPU紧密结合,性能比目前最先进的NVIDIA DGX系统(在x86 CPU上运行)还高出10倍。
 

 

“未来,绝大多数数据中心仍将使用现有的CPU,x86服务器架构的出色之处在于能够通过配置不同的CPU、内存、PCIe和外围设备来服务所有这些应用场景”,黄仁勋强调,“Grace专为加速大量数据的应用程序而构建,主要面向大型数据密集型HPC和AI应用的细分市场。”

 

Grace无疑彰显了Arm架构所带来的助益,英伟达的架构和平台通过支持x86和Arm,将能够满足市场上的更多需求。

 

这也意味着,英伟达与x86的竞合之路也进入了新阶段,以往更多是基于x86架构做加速升级,但现在,放眼数据暴增的新应用,英伟达可以拍拍Intel的肩膀说,“Hey buddy, now I have my own CPU. ” 


全球半导体供应链高度互联非常重要

 

针对当前全球半导体芯片的突出问题,黄仁勋也发表了个人的观点。

 

“半导体技术对整个人类社会的重要性比以往任何时候都要明显,一颗芯片有可能影响整个行业,特别是当前在汽车领域,”他表示,“显然,现有的供应链需要升级、重塑,减少层层责任,这样就可以更直接地找到货源。”

 

对于美国的供应链回迁问题,黄仁勋表示,“世界供应链的高度互联非常重要,谁都不能孤立下去。在现有的供应链格局中,世界各地厂商已经在各自环节中发挥着重要作用。很多电子设备都是由来自世界不同地方的零部件组合而成,而这需要很多人的工作才能实现。供应链已经如此复杂,也正是科技产业创造出了一个相互联系的地球村。”

 

他认为,不管产业链如何变迁,但内在的联系不会消失,影响未来计算的基本动力应该被认识到。5G、云计算、数据中心正在对现有的计算架构进行升级,所有这些驱动力使成千上万的小芯片聚合成一个个计算单元,将重塑现有的行业应用,重塑所有受计算影响的行业。