加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
  • 推荐器件
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

AI芯片大比拼:GPU/FPGA/ASIC/类脑芯片,哪个更牛?

2018/01/17
92
阅读需 27 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

2017 年,“人工智能”俨然已经成为所有媒体的头条热点,在媒体和资本的推动下,AI 以迅雷不及掩耳之势向我们汹涌奔来。从政策层面,2017 年关于 AI 发生了三件大事,一是发布了人工智能发展规划;二是人工智能首次写入十九大报告;三是很多城市,如上海、重庆等都在进行人工智能规划。

从数据来看,2013 年只有 100 多家组织机构研究深度学习和人工智能,而到了 2015 年,这个数字已经飙升到 3409 家,两年时间增长 30 多倍。就连以电动汽车起家的特斯拉也宣布开始设计 AI 芯片,马斯克请来了 AMD 公司 Zen 架构的开发者 Jim Keller,担任自动驾驶硬件副总裁。

 

构造“芯”生态主题沙龙嘉宾合影

在 AI 热闹非凡的大背景下我们也需要认真思考:人工智能是否需要专门的芯片?现有的技术架构具有怎样的优势?近期,北京建广资产管理有限公司主办了一场以“构造’芯’生态”为主题的沙龙,赛迪智库半导体研究所副所长林雨从 AI 芯片定义、分类、生态环境、投资等方面做了分析。

人工智能如果按照架构进行划分,有三个重要元素:数据、算法和算例,其中算例就是芯片,算例是基础,算法是核心,数据是保障。先看人工智能的定义,从广义上讲只要能够运行人工智能算法的芯片都叫人工智能芯片。但是深入分析,林雨表示,“只有针对人工智能算法做了特殊加速设计的芯片才可以称作为人工智能芯片,市场上真正做到了对芯片里面的架构做了特殊加速设计的公司少之又少。”

三个维度对人工智能进行分类

林雨分别从功能、应用场景和技术架构对人工智能进行了分类:

从功能上来看,人工智能包括推理和训练两个环节。在训练层面,通过大数据训练出一个复杂的神经网络模型。目前训练环节主要使用英伟达的 GPU 集群完成,谷歌的 TPU2.0 也支持训练环节和深度网络加速。推理环节是指利用训练好的模型,使用新数据推理出各种结论。总得来看,训练环节对芯片的性能要求比较高,推理环节对简单指定的重复计算和低延迟的要求很高。


从应用场景来看,人工智能芯片应用于云端和设备端,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。在设备端,智能终端的数量庞大,而且需求差异较大,比如 VR 设备对于实时性要求很高,推理环节无法在云端完成,要求设备有独立的推理计算能力,因此专用芯片的需求还是很大。

从技术架构来看有四类:一是通用性芯片,如 GPU;二是以 FPGA 为代表的半定制化芯片,如深鉴科技的 DPU;第三,ASIC 全定制化芯片,如谷歌的 TPU;第四,类脑芯片。


GPU/FPGA/ASIC/ 类脑芯片,各有怎样的优势?
为了进行大数据处理,当前的方案一般采用高性能的处理器辅助 MCU 进行计算,但是随着摩尔定律时间周期拉长,处理器上可集成的器件数量会达到极限,而数据量还在不断增加,因此我们需要通过架构的变化来满足数据量的增长,这就是人工智能芯片推出的背景。

目前来看,人工智能芯片有四类架构:GPU、FPGA、ASIC 和类脑芯片。

GPU:是单指令、多数据处理,采用数量众多的计算单元和超长的流水线,如名字一样,图形处理器,GPU 善于处理图像领域的运算加速。但 GPU 无法单独工作,必须由 CPU 进行控制调用才能工作。CPU 可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用 GPU 进行并行计算

FPGA:和 GPU 相反,FPGA 适用于多指令,单数据流的分析,因此常用于预测阶段,如云端。FPGA 是用硬件实现软件算法,因此在实现复杂算法方面有一定的难度,缺点是价格比较高。将 FPGA 和 GPU 对比发现,一是缺少内存和控制所带来的存储和读取部分,速度更快。二是因为缺少读取的作用,所以功耗低,劣势是运算量并不是很大。结合 CPU 和 GPU 各自的优势,有一种解决方案就是异构。

ASIC 芯片:是专用定制芯片,为实现特定要求而定制的芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在高性能、低功耗的移动端。谷歌的 TPU、寒武纪的 GPU,地平线的 BPU 都属于 ASIC 芯片。谷歌的 TPU 比 CPU 和 GPU 的方案快 30-80 倍,与 CPU 和 GPU 相比,TPU 把控制缩小了,因此减少了芯片的面积,降低了功耗。

很多人认为 ASIC 是人工智能芯片的一个主要发展方向,其实在 ASIC 芯片里还有一个特殊的群体—类脑计算,林雨认为,“这才是真正的人工智能芯片未来发展的方向。类脑计算是真正模拟人脑进行设计,人脑的特点就是神经元进行传输数据。当我们用硬件去模拟人脑时,在硬件环节里还有许多多余的元素,而类脑芯片就拟合人脑的作用。要做类脑芯片非常难,IBM、高通、英特尔等公司的芯片策略都是用硬件来模仿人脑的神经突触。”

四种架构将走向哪里?
将以上四种架构对比,GPU 未来的主攻方向是高级复杂算法和通用性人工智能平台,其发展路线分两条走:一是主攻高端算法的实现,对于指令的逻辑性控制要更复杂一些,在面向需求通用的 AI 计算方面具有优势;二是主攻通用性人工智能平台,GPU 的通用性强,所以应用于大型人工智能平台可高效完成不同的需求。FPGA 更适用于各种细分的行业,人工智能会应用到各个细分领域。


ASIC 芯片是全定制芯片,长远看适用于人工智能。现在很多做 AI 算法的企业也是从这个点切入。因为算法复杂度越强,越需要一套专用的芯片架构与其进行对应,ASIC 基于人工智能算法进行定制,其发展前景看好。类脑芯片是人工智能最终的发展模式,但是离产业化还很遥远。

投资投哪里?大佬擦亮眼睛看这几点

第一,关注具有纵向产业链整合能力的企业。因为未来在人工智能领域侧重生态整合。单独做芯片的公司不如既掌握芯片又掌握算法公司,因此,那些算法和芯片兼具的企业更值得关注。

第二,专攻终端应用市场,人工智能芯片的应用场景里有两个:一个是在云端,一个是在终端。云端格局应该变化不大,但是在终端方面变数未定,这是对国内企业来说是一个不错的切入点,边缘计算值得关注。

第三,关注专用芯片,ASIC 从功耗、技术都具有优势,是未来 AI 芯片发展的主要方向,尤其要关注是否有加速环节。

有了资本和媒体的热捧,AI 已经在全球范围内遍地开花,顺势而为的创业者也不在少数。目前,国内已经有 20 多家初创企业在做人工智能芯片,但是评估一家企业的技术能力是第二位的,第一位的考察点要看他们是否能真正能将技术变现,是否能将技术转化为商业产品。因此,看一家 AI 芯片设计企业,商业能力要大于技术能力,这才是融资点。

与非网原创内容,未经允许,不得转载!

推荐器件

更多器件
器件型号 数量 器件厂商 器件描述 数据手册 ECAD模型 风险等级 参考价格 更多信息
STM32F429IGT6 1 STMicroelectronics High-performance advanced line, Arm Cortex-M4 core with DSP and FPU, 1 Mbyte of Flash memory, 180 MHz CPU, ART Accelerator, Chrom-ART Accelerator, FMC with SDRAM, TFT

ECAD模型

下载ECAD模型
$14.94 查看
ATXMEGA256D3-AUR 1 Microchip Technology Inc IC MCU 8BIT 256KB FLASH 64TQFP
$6.07 查看
ATXMEGA128D4-MH 1 Atmel Corporation RISC Microcontroller, 16-Bit, FLASH, AVR RISC CPU, 32MHz, CMOS, PQCC44, 7 X 7 MM, 1 MM HEIGHT, 0.50 MM PITCH, GREEN, PLASTIC, MO-220VKKD-3, VQFN-44
$5.3 查看

相关推荐

电子产业图谱