当前以深度学习为代表的人工智能迎来第三次爆发,这对底层芯片计算能力更高需求。人工智能运算具有大运算量、高并发度、访存频繁的特点,且不同子领域(如视觉、语音与自然语言处理)所涉及的运算模式具有高度多样性,对于芯片的微架构、指令集、制造工艺甚至配套系统软件提出巨大挑战。

 

AI 芯片作为专门针对人工智能领域的新型芯片,相较传统芯片能更好满足人工智能应用需求。

 

根据部署位置,AI 芯片可以分为云端(数据中心)芯片和边缘端(终端)芯片。云端芯片部署位置包括公有云、私有云或者混合云等基础设施,主要用于处理海量数据和大规模计算,而且还要能够支持语音、图片、视频等非结构化应用的计算和传输,一般情况下都是用多个处理器并行完成相关任务;边缘端 AI 芯片主要应用于嵌入式、移动终端等领域,如摄像头、智能手机、边缘服务器、工控设备等,此类芯片一般体积小、耗电低,性能要求略低,一般只需具备一两种 AI 能力。

 

按芯片承担的任务,可以分为用于构建神经网络模型的训练芯片,与利用神经网络模型进行推断的推断芯片。训练是指通过大量的数据样本,代入神经网络模型运算并反复迭代,来获得各神经元“正确”权重参数的过程。推断是指借助现有神经网络模型进行运算,利用新的输入数据来一次性获得正确结论的过程。训练芯片受算力约束,一般只在云端部署。因此,AI 芯片可以分为云端训练芯片、云端推断芯片和边缘端训练芯片。

 

从 AI 芯片的技术路线看,主要包括基于传统架构的 GPU、FPGA、ASIC。

 

短期内 GPU 仍将主导 AI 芯片市场,长期三大技术路线将并存。目前 AI 芯片并不能取代 CPU 的位置,正如 GPU 作为专用图像处理器与 CPU 的共生关系,AI 芯片将会作为 CPU 的 AI 运算协处理器,专门处理 AI 应用所需要的大并行矩阵计算需求,而 CPU 作为核心逻辑处理器,统一进行任务调度。在服务器产品中,AI 芯片被设计成计算板卡,通过主板上的 PCIE 接口与 CPU 相连;而在终端设备中,由于面积、功耗成本等条件限制,AI 芯片需要以 IP 形式被整合进 Soc 系统级芯片,主要实现终端对计算力要求较低的 AI 推断任务。

 

FPGA 技术,因其低延迟、计算架构灵活可定制,正在受到越来越多的关注,微软持续推进在其数据中心部署 FPGA,Xilinx 和 Intel 均把 FPGA 未来市场中心放到数据中心市场。Xilinx 更是推出了划时代的 ACAP,第一次将其产品定位到超越 FPGA 的范畴。相较云端高性能 AI 芯片,面向物联网的 AI 专用芯片门槛要低很多,因此也吸引了众多小体量公司参与。

 

长期来看,GPU 主要方向是高级复杂算法和通用型人工智能平台,FPGA 未来在垂直行业有着较大的空间,ASIC 长远来看非常适用于人工智能,尤其是应对未来爆发的面向应用场景的定制化芯片需求。