过去十年中,卷积神经网络和其它人工智能技术突飞猛进的发展不可避免地影响了处理器领域的格局。现在,人工智能已经成为很多行业的流行语,它是光,它是电,它是所有处理器制造商都想要的东西。而且,所有软件供应商都渴望投资 AI,开发新的功能。刚刚进入这个十年时还完全不存在的一个市场突然在过去几年中成为了研究开发和新营收的焦点和中心。目前,已经有一些处理器供应商围绕人工智能建立起了自己初具规模的小型帝国。

但是,现代的人工智能仍然处于其发展的早期阶段,它的市场空间也是无可限量。数据中心继续大批量地购买 AI 加速器,越来越多的消费级处理器中也开始部署人工智能。在很多人都奋力争夺的这个市场中,全球的处理器制造商都在试图弄清楚他们自己如何跻身为新的 AI 处理器市场中的主导力量。人工智能的淘金热已经全面展开,每个人都在排着队叫卖淘金的工具。

 


就其基础技术及其背后的制造商而言,人工智能的淘金热引起了全球各个角落科技公司的兴趣。从 GPU、CPU 到 FPGA、定制 ASIC 公司,从在边缘节点处进行推理、在云端进行推理到在云端进行训练,各种处理器试图在各个链条上提供 AI 处理服务。不过,在人工智能的世界中,利润最为诱人的依然是计算世界金字塔的顶端市场:数据中心。数据中心市场正在不断扩展,部署成本高昂,而且仍在实现跨越式发展,数据中心的运营商们对于购买大量的处理器永不餍足,这是最为高端的市场盛宴。现在,高通这位守在数据中心 AI 市场旁边的巨头终于要采取行动了。

近日召开的是他们的第一个高通 AI 日,这位移动世界的“金刚”宣布,高通正在以快速、激进的方式进入人工智能加速器市场。在活动现场,高通发布了他们第一款分立式专用 AI 处理器,即高通云 AI 100 系列。该系列产品专为人工智能市场设计,高通公司承诺为之构建一整套广泛的软件栈。高通正在加紧工作,力争在 2020 年将云 AI 100 推向市场,并借此将自己打造为供不应求的人工智能推理加速器市场的主要供应商。

 


严格来说,高通近日宣布的内容更像是一支预告片,不大像产品发布,当然更没有具体技术规格的披露了。云 AI 100 系列数据中心推理加速器是高通公司计划在 2020 年推出的产品,它将在今年晚些时候拿出样片。简而言之,要见到正经八百的商业产品我们还得等上整整一个年头。高通这次“发布会”做得不错,它表达了自己的意图和愿景,但没有揭示自己的技术。我们可以认为,它这次是在提前通知自己将要追求的大客户。尽管如此,今天的发布依然很重要,因为高通明确地表示了自己未来要走的是和其两大竞争对手 - 英伟达和英特尔 - 截然不同的方向。

高通云 AI 100 产品架构:专用推理 ASIC
那么,高通当下究竟在做什么呢?简单来说,该公司正在面向数据中心市场开发一系列专用的 AI 推理加速器。该产品系列不是遵循从上到下衍生式的设计,而是将采用各种外形尺寸,设计不同的总设计功耗,以满足数据中心运营商的多样化需求。在这个市场上,高通公司希望打造最为高效的推理加速器,使其性能远远高于目前的 GPU 和 FPGA 领跑者。

 


对于云 AI 100 系列,高通公司目前没有给出任何实质性的架构细节,但是它还是透露了一些我们想知道的信息。首先,这些新器件将采用 7 纳米工艺制造,高通可能会选择台积电以性能为优先导向的 7 纳米 HPC 工艺。此外,高通将提供各种板卡,不过目前尚不清楚它是否设计了不止一种处理器。高通还告诉我们,这是一个从头开始的全新设计,所以它并不是把骁龙 855 的 AI 功能扩大化衍生出来的产品。

事实上,高通表明的该产品系列和骁龙 855 的关系可能才是最重要的信息。尽管高通今天没有提供加速器的架构细节,但是它明确表示,这将是一款不折不扣的 AI 推理加速器。既不是 AI 训练加速器,也不能被称为 GPU 或者其它名称。它只能被用在 AI 推理上,即用来运行业经训练好的神经网络。

 


这是一个非常重要的区别,因为,魔鬼藏在细节之中,高通公司的声明很明确,它强有力地指出了该产品的基础架构 - 人工智能推理 ASIC,就像谷歌的 TPU 系列那样,它并非一种更为灵活的处理器。当然,高通远远称不上第一家专门为 AI 处理运算构建 ASIC 器件的厂商,但是,其它 AI ASIC 要么专注在低端市场上,要么只供内部使用(我们又要拿谷歌的 TPU 做例子了),而高通面向的则是高端数据中心市场的客户。而且,相对于竞争对手而言,高通给出的信息表明该器件更像是一种 ASIC,而不是类似 GPU 那种设计,要知道在 AI GPU 上,英伟达稳占鳌头,英特尔积极跟进,后来者很难再挤进来。

高通的云 AI 100 处理器的设计策略非常巧妙,它收缩了战线,只专注在 AI 推理上,这使得该产品的性能潜力值得期待。在处理器设计层面,架构师需要兼顾灵活性和效率,一颗芯片越接近只实现固定功能的 ASIC,它的能效就越高。正如 GPU 在 AI 性能上面实现了对 CPU 的巨大飞跃一样,高通希望这款类似 ASIC 的处理器在 AI 性能上实现对 GPU 的飞跃。

当然,凡事有利皆有弊,更加贴近固定功能的 ASIC 就意味着放弃灵活性。它能否应对新的数据中心框架、执行新的处理流程或者运行全新的神经网络模型还有待观察。但是,我相信,高通肯定肯定会在这里进行一些必要而且重要的权衡,当前最重要的问题是,这些权衡是否正确,以及目前整个市场是否已经为专门面向数据中心的 AI ASIC 做好了准备。

同时,高通公司必须解决的另外一个重要技术问题在于,它的云 AI 100 系列是它们第一款专用的 AI 处理器。不可否认的是,每款产品都有其技术积累的历史渊源,对于高通及其云 AI 100,他们肯定是希望将自己在人工智能方面的专业知识转换为数据中心应用上的人工智能。高通的旗舰级骁龙 SoC 已经成为当今世界上一股不容忽视的力量,高通公司认为,他们在高能效设计和信号处理方面的经验将帮助它在数据中心 AI 市场也占据重要地位。

以高通公司目前的庞大体量,他们的产品一旦被市场证明,便能够迅速提高产量。虽然,这并不能帮助它在对抗英伟达和英特尔这两家巨头上占得一点便宜,因为这两家公司可以分别利用台积电和自家的制造工厂迅速上量并取得规模经济性,但是,这将使得高通可以建立对无数也在追求 AI ASIC 的小型硅谷初创公司的优势。

 

 

 


高通为什么进入数据中心推理市场?
除了技术方面的考虑之外,另外一个推动高通公司进入 AI 推理加速器市场的重要因素便是 - 钱!

尽管目前人们对人工智能推理市场的最终规模能达到多少存在很大争议,但是高通公司认为,到 2025 年,数据中心推理加速器市场可能会达到 170 亿美元。如果预测成真,这确实是一个相当大的市场,也是一个高通绝对不愿意错过的市场,它完全可以媲美高通当前的芯片制造业务。

 


此外,值得注意的是,上面所说的还只是单纯的推理市场,而不是整个数据中心推理+训练市场,这里存在很大的区别。因为,虽然训练也很重要,但是针对训练的计算需求和针对推理的计算需求有很大不同。虽然可以使用相对低精度的数据类型(比如 INT8,有时还会更低)执行准确的推理,但是目前大多数训练任务都需要 FP16 或者更高精度的数据类型。这就需要一种不同类型的芯片,特别是我们讨论的是 ASIC,而不是类似于 GPU 那样的通用产品。

推理加速器的规模可以很容易地扩展:虽然训练神经网络可能需要部署大量资源,但是只需要部署一次就可以了,然后,训练好的神经网络可以复制到推理加速器集群中去执行。所以,对于和训练同样重要的推理,潜在客户需要的推理加速器数量要远大于训练用处理器。

 


与此同时,尽管高通公司没有明确喊话,但是很明显,它正打算颠覆市场领导者英伟达,英伟达已经用自己的 AI 处理器建立了一个小型的人工智能帝国。目前,英伟达的特斯拉 T4/P4/P40 加速器构成了数据中心 AI 推理处理器世界的支柱,从财报上来看,来自数据中心的收入是英伟达整体营收中利润率很高的板块。因此,即使整个数据中心市场没有像之前预期的速度和规模增长,这依然是一块非常有利可图的业务。

加入这个战局,高通还必须时刻牢记来自英特尔的威胁。英特尔公开表达了自己的人工智能计划,从低功耗的 Movidius 加速器到最新的 Cascade Lake Xeon 可扩展 CPU,英特尔有几个不同的 AI 产品系列计划。不过,具体到高通公司想要进入的数据中心 AI 推理加速器市场而言,来自英特尔最大的威胁可能是它即将推出的 Xe GPU,这些 GPU 来自英特尔最近刚刚重建的 GPU 部门。和高通一样,英特尔也在对英伟达发起挑战,因为人工智能推理市场上的竞争对手们没有一个希望失败。

努力落地
高通公司只是表达勃勃的雄心远远不够,在接下来的 12 个月内,它的重点将是发展第一批客户。要做到这一点,高通必须证明,它对于云 AI 100 系列所做的所有事情都是极其认真的,它的硬件拿得出手,而且还能提供可以与竞争对手的软件生态系统 PK 的易用软件。所有这一切都不容易,所以高通公司需要从现在开始努力,以兑现吹过的牛逼。

 


多年来,高通公司一直对服务器和数据中心市场抱有各种各样的梦想,但是都是“过于雄心勃勃”。比如,高通公司在 2017 年大张旗鼓地宣布将突出基于 ARM 的服务器 CPU-Centriq 系列,结果整个项目在一年内就遭遇了滑铁卢。高通公司的 Centriq 虽然失败了,但是它的另外两个拳头产品 - 移动处理器和调制解调器 - 都是非常强悍的存在。为了让数据中心运营商们信任并敢于使用云 AI 100 系列,高通公司不仅需要为其第一代产品制定一个伟大的计划,还需要为未来几代产品制定可以执行落地的计划。

在这个年轻、不断增长的推理加速器市场中,数据中心运营商也愿意尝试 CPU 之外的新处理器。所以,我们没有理由认为高通的云 AI 100 系列肯定不会取得成功,但是,高通公司要说服在其它方面依然谨慎的数据中心运营商,它就必须在其产品上投入更多的资源。

 


除了器件本身,软件层面同样重要。英伟达在人工智能领域取得的巨大成功在很大程度上应该归功于他们的人工智能软件生态系统,该生态系统本身就是自己十年前的 CUDA 生态系统的扩展,CUDA 生态系统让其在 GPU 领域的竞争对手 AMD 被打压得抬不起头来。对于高通公司来说,它的优势在于目前已经存在最流行的框架、运行时工具。TensorFlow、Caffe2 和 ONNX 都是很不错的选择,高通知道这一点,它也有能力实现它,所以它承诺为其 AI 加速处理器提供广泛的软件栈。不过,高通公司必须在软件栈上加快速度,因为他们的软件栈实际运行性能如何决定了整个项目的成败。高通必须提供良好的硬件和软件组合才能在这个市场上取得成功。

高通公司今天发布的公告是一个预告片,它宣布了未来一年将要发生的事情。它制定了一项雄心勃勃的计划,旨在打入日益增长的人工智能推理加速器市场,并提供和这个开放性的市场上其它任何产品都有所不同的加速器。从预告片到正式上映将会是一个巨大的挑战,但是高通公司是在资金和工程资源方面最有实力的处理器巨头,所以,高通公司能够在推理加速器市场上取得多大的成绩取决于它有多渴求这个市场。它有能力开发这种处理器,也知道如何避免导致之前的服务器处理器计划失败的失误。

不过,最重要的是,高通公司也不会轻易地攻下推理加速器市场,它必须为之一战。高通的成功等价于英伟达市场份额的丢失,英伟达肯定不会束手就擒,英特尔也在虎视眈眈,更不用说其他 GPU 厂商、FPGA 供应商和 ASIC 厂商了。在这个新兴技术主导的年轻市场中,所有参与者都有可能迅速崛起和衰败。所以,虽然距离 2020 年还有差不多一年,但是,人工智能加速器市场必将在 2020 年掀起第一场世界大战。

 

与非网编译内容,未经许可,不得转载!