• 正文
    • 云端算力“新标杆”
    • 汽车业务迎来“拐点”
    • 云端Omniverse连接全球元宇宙
    • 大型语言模型持续释放“魔力”
    • 让边缘AI更易获取、更安全合规
    • 押注长期布局
  • 相关内容
  • 电子产业图谱
申请入驻 产业图谱

芯片低迷时期,NVIDIA如何做个长期主义者?

11/01 00:03 作者:与非网编辑
阅读需 15 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

全球市场环境的不确定性让科技巨头纷纷坐上“过山车”。

过去一年,NVIDIA市值一度冲顶8600亿美元。而今年以来,它却一路面临股价大跌、市值缩水,二季度财报显示营收环比下滑19%。雪上加霜的是,刚一进入9月,两款数据中心GPU遭遇“许可限制”。 NVIDIA在第三财季的展望中预计,最新的许可要求可能会影响它在中国市场约4亿美元的潜在收入……

外部环境方面也不容乐观,全球半导体供应链正面临着极限拉扯、大国竞争加剧的挑战。并且,对NVIDIA发展极为重要的中国市场,本土创业公司也正以汹汹来势持续发起挑战……

这一切都让人更为关注,多重承压的NVIDIA,如何继续捍卫算力王座?又将如何布局未来市场?

刚刚结束不久的GTC,显现出了NVIDIA的清晰战略。昔日的“游戏公司”,今日的“AI算力之王”、“元宇宙算力之王”……剥离一个个标签后,其实会发现这么多年来,长期主义者NVIDIA一直在坚持一件事——就是围绕GPU的全栈布局,所不同的只是面向游戏、数据中心、元宇宙、汽车等场景变革需求的因时而动。

云端算力“新标杆”

今年二季度财报中,NVIDIA的数据中心业务营收同比增长61%至38.1亿美元,高于游戏业务营收的20.4亿美元,数据中心终于取代游戏业务成为了英伟达最大的营收来源。而随着英伟达在数据中心领域的持续扩张,该业务营收有望持续迎来强劲增长。

值得关注的是,NVIDIA在GTC上宣布H100 Tensor Core GPU 全面投产,且NVIDIA 全球技术合作伙伴计划于10月推出首批基于Hopper架构的产品和服务。

基于Hopper架构和 Transformer 引擎,以及包括第二代多实例 GPU、机密计算、第四代 NVIDIA NVLink 和 DPX 指令等若干关键性创新,都让NVIDIA最新的GPU产品如虎添翼,实现了 NVIDIA 加速计算数据中心平台的又一次飞跃。相较于上一代,在提供相同 AI 性能的情况下,H100可将能效提高 3.5 倍,总体拥有成本减少至 1/3,所使用的服务器节点数也减少至 1/5,使企业大大削减 AI 的部署成本。

据了解,到今年年底将有超过50款搭载H100的服务器型号面市,2023 年上半年还将有数十款型号面市。此外,数家全球领先的高等教育和研究机构的新一代超级计算机也将采用 H100。在云端市场,AWS、谷歌云、Microsoft Azure、Oracle Cloud Infrastructure 将从明年开始率先在云端部署基于 H100 的实例。

从这些市场跟进中不难发现,Hopper 作为AI 工厂的全新引擎,正在掀起新的应用热潮,这对于正在大规模落地的AI应用来说,具有积极的推动作用。在大数据与云计算重要性日益突显的情况下,H100没有道理不受市场热捧,有望进一步带动数据中心业务的长线增长。

汽车业务迎来“拐点”

NVIDIA一直非常看好自动驾驶业务,今年3月份,它预计未来六年汽车业务的营收将高达110亿美元以上。从GTC最新的产品进展和市场布局来看,汽车业务确实很有可能成为NVIDIA的下一个主要增长引擎。

最新推出的新一代集中式车载计算平台 NVIDIA DRIVE Thor,可实现最高2000 TOPS AI算力以及2000 TFLOPS 浮点算力,可以将包括自动驾驶和辅助驾驶、泊车、驾乘人员监控、数字仪表板、车载信息娱乐(IVI)、后座娱乐功能等智能功能,统一整合到单个架构中,从而提高效率并降低整体系统的运行能耗。“DRIVE Thor 是集中式计算领域的超级英雄,能够为自动驾驶汽车带来可持续升级且安全的软件定义超级计算机”,黄仁勋表示。

据了解,DRIVE Thor 是首个集成推理Transformer引擎的自动驾驶汽车平台,该引擎是 NVIDIA GPU 中 Tensor Core 的新组件。借助该引擎,DRIVE Thor 可将 Transformer 深度神经网络的推理性能提升高达 9 倍,这对于支持与自动驾驶相关的、庞大且复杂的 AI 工作负载至关重要。

从NVIDIA内部产品的更迭来看,DRIVE Thor其实是取代了 NVIDIA DRIVE Atlan,并将逐渐接替DRIVE Orin(现已量产,性能为254TOPS)。这一超级芯片将于 2025 年量产上车,届时,行业将加速转向具有集中式电子架构的软件定义车辆,有望为汽车用户带来更好的体验,也为NVIDIA带来可观的新收入来源。

云端Omniverse连接全球元宇宙

AI 和元宇宙技术正在重塑经济基础,显然也是NVIDIA这两年布局的重点。元宇宙方面,继推出专注于实时仿真、数字协作的云平台Omniverse之后,NVIDIA除了继续优化其拥有高度逼真的物理模拟引擎以及高性能渲染能力,同时也在不断将NVIDIA AI和Omniverse服务的扩展组合推到云中运行,以提供方便的访问和扩展性。

GTC上,NVIDIA宣布了它的首款软件加基础设施即服务产品——NVIDIA Omniverse Cloud,便于用户在任何地点使用这套综合、全面的云服务,来设计、发布、运行和体验元宇宙应用。在无需任何本地算力的情况下,个人和团队可借助 Omniverse Cloud,一键体验 3D 工作流的设计与协作能力,并可连接世界各地的团队,共同设计、构建和运行虚拟世界和数字孪生。

此外,为了给大规模数字孪生提供计算系统支持,NVIDIA于今年 3 月推出了 NVIDIA OVX。而GTC推出的第二代 NVIDIA OVX,则采用NVIDIA Ada Lovelace GPU 架构和新升级的网络技术,具有开创性的实时图形、AI 和数字孪生性能,旨在助力运用领先的3D软件来构建 3D 虚拟世界,并且支持在 NVIDIA Omniverse Enterprise(一个能支持企业构建并运行元宇宙应用的可扩展端到端平台)中运行沉浸式数字孪生。

对于行业应用来说,元宇宙的必经之路就是实现大规模的数字孪生,它甚至重新定义了这些行业在物理世界中的规划、设计和构建方式。

在这一过程中,坚实的算力支持必不可少,特别是对于工厂、建筑乃至整座城市等复杂数字孪生来说,NVIDIA OVX进一步为元宇宙中的图形处理和模拟打下了坚实基础。据了解,技嘉科技、新华三、浪潮、联想、广达和超微将提供 OVX 系统,宝马集团和捷豹路虎将成为 OVX 系统的首批客户。

大型语言模型持续释放“魔力”

深耕AI数年,NVIDIA已经参透了大型语言模型的“魔力”,认为它具有改变每个行业的潜力,通过对基础模型进行调整,可将大型语言模型的力量带给数百万的开发者,让他们无需重新构建庞大的模型,即可创建各种语言服务并推动科学发现。

GTC上最新发布的两项大型语言模型(LLM)云AI 服务——NVIDIA NeMo 大型语言模型服务和 NVIDIA BioNeMo LLM 服务,使开发者能够轻松调整LLM并部署定制的AI应用程序,可用于内容生成、文本摘要、聊天机器人、代码开发,以及蛋白质结构和生物分子特性预测等。

借助 NeMo LLM 服务,开发者可以使用自己的训练数据定制基础模型——从 30 亿个参数到世界上最大的LLM之一Megatron 530B。与从头开始训练模型所需的数周或数月相比,该过程只需几分钟到几小时。

NVIDIA BioNeMo 服务则是云应用程序编程接口(API),它可以将LLM用例扩展到语言以外的科学应用中,加快制药和生物技术公司的药物研发速度。BioNeMo LLM 服务包括两个用于化学和生物学应用的新BioNeMo语言模型,该服务提供蛋白质、DNA 和化学数据方面的支持,帮助研究人员发现生物序列中的模式和洞察。这些大型模型可以储存更多关于蛋白质结构、基因间进化关系的信息,甚至可以生成用于治疗的新型生物分子。

以上应用不仅是NVIDIA在大型语言模型领域的重大突破,同时也将为AI和数字生物学的发展带来巨大动力。

让边缘AI更易获取、更安全合规

边缘AI方面,全新的Jetson Orin Nano系统级模组进一步扩充了NVIDIA Jetson产品阵容。其中包括在最小的Jetson外形尺寸下提供每秒40万亿次(TOPS)AI性能的Orin Nano,以及为高级自主机器提供每秒275万亿次(TOPS)AI性能的AGX Orin。与上一代产品相比,Jetson Orin Nano的性能提高了80倍,成为入门级边缘AI和机器人技术的新基准。

Jetson Orin包括了基于NVIDIA Ampere架构的GPU、基于Arm架构的CPU、新一代深度学习和视觉加速器、高速接口、快速内存带宽,并支持多模式传感器。无论是部署边缘AI应用的工程师还是构建新一代智能机器的机器人操作系统(ROS)的开发者,这种前所未有的性能与多功能性,将有望使更多客户创造出曾经看似不可能实现的产品,并使其商业化。

此外,面向制造、物流和医疗等行业的高精度边缘AI需求,帮助他们摆脱特定用例昂贵的定制解决方案支出,最新推出的NVIDIA IGX平台凭借易于编程和可配置性,可以满足不同的行业需求。

对于制造业和物流业,IGX为高度监管的实体工厂和仓库提供了额外的安全层;对于医疗行业的边缘AI用例,IGX提供安全、低延迟的AI推理,以满足临床对医疗程序中的一系列仪器和传感器获得即时洞察的需求,例如机器人辅助手术、患者监测系统等。

通过这一系列最新升级,NVIDIA的边缘AI能力进一步得到增强。Jetson Orin Nano有望大幅扩展使用者数量,帮助数百万边缘AI和ROS开发者大幅提高性能;NVIDIA IGX将帮助企业建立下一代软件定义的工业和医疗设备,确保边缘AI的合规性。

押注长期布局

长期主义者不仅要坚持想做的事情,还不能中断正在做的事,并且要持续地排除阻力,保持前进。

NVIDIA押注的显然是长期布局,在巩固游戏、数据中心等业务领先地位的同时,自动驾驶、元宇宙、边缘AI等都在持续壮大中。

对于短期的困局, NVIDIA或许不会过度关注,而是把注意力聚焦在长期目标上。因为长远看来,以上所有业务都趋于稳健增长。正如黄仁勋在GTC上所强调的,“我们要认识到这是一个应用AI的时代,未来10年、15年,需要帮助企业应用人工智能。”这才是发展的底层,为此,NVIDIA需要打造更强的算力平台、创建新的工具和应用框架,并发展新的合作伙伴关系。

从技术路线图来看,英伟达在传达出一个更为清晰的信息:它并不寄望于一劳永逸,而是通过持续创新来实现关键技术的代代更迭。因此,行业周期性的低迷也好,外部因素造成的动荡也罢,这些终会过去。只要保持创新力、持续不断地壮大生态,最终仍将站在行业前沿。
 

更多相关内容

电子产业图谱