Canyon Bridge拿下莱迪思只为FPGA?跟深度学习有几毛钱关系

2016-12-16 14:52:21 来源:EDN电子技术设计
标签:

 

由于收购FPGA龙头老大赛灵思显然是不现实的,而行业排名第二的阿尔特拉已经被Intel以167亿美元捷足先登,因此就退而求其次收购莱迪思了,而这也已经很不容易了。

 

11月3日,莱迪思半导体与传闻中有中资背景的基金Canyon Bridge共同宣布,双方签署收购协议,Canyon Bridge将以13亿美元的价格溢价30%收购莱迪思半导体。在交易完成以后,Lattice将会继续以一间独立的子公司的身份继续运营。

 

 

目前,该交易已经被两家公司董事会一致批淮,如果通过美国相关部门审核,而且被莱迪思股东大会通过,该交易有望于2017年上半年完成。不过,22名美国国会议员在12月5日致函美国财长雅各布?卢,以安全担忧为由要求阻止与中国政府有关联的基金收购美国晶片制造商莱迪思半导体,美国国会议员在信函中说,这项交易可能扰乱美国军方的供应链,导致美国国防部许多重要计划要依赖源自国外的技术。

 

虽然这场收购是否会步中资收购德国半导体是设备厂爱思强公司的后尘还无从得知,但美国对中国政府严格的技术封锁已经展露无遗。在排除比较阴谋论的中国政府力图通过收购莱迪思获取有关FPGA的技术后,一起来看看这场收购的其他因素。

 

这场收购与深度学习的关系有多大?

相对于之前的那种比较阴谋论的观点——中国政府背后主导了这次针对莱迪思的收购,另一种观点认为这仅仅是Canyon Bridge看好FPGA在深度学习方面的发展前景。

 

在阿法狗大战李世石后,人工智能越来越多成为舆论的热点,深度学习的热度也越来越高,但芯片计算能力却成为一道瓶颈——传统的处理器是为了进行通用计算发展起来的,处理效率不高,谷歌甚至需要使用上万个中央处理器运行7天来训练一个识别猫脸的深度学习神经网络。科大讯飞曾经采用大量CPU来支持大规模数据预处理,运行GMM-HMM等经典模型的训练,在千小时的数据量下,效果也不理想。

 

因此,为了提高深度学习效率,逐渐衍生出使用CPU+GPGPU、众核芯片、CPU+FPGA和使用专门针对人工智能而开发的NPU几种方案。

 

GPGPU可以实现高并行计算和高计算吞吐,适用于计算密集、高并行、SIMD应用,尤其擅长图形图像、矩阵计算等方面的应用,英伟达的GPGPU双精浮点性能可达5.3TFlops,英伟达还专门开发的DGX-1系统,并宣称DGX-1比 21 个 Xeon Phi 服务器集群快一点,比四个 Xeon Phi 服务器集群快 5.3 倍。

 

Intel的众核芯片双精浮点性能为3 TFlops,性能功耗比为12 GFlops/W,虽然在性能上目前稍逊于GPGPU,但具有高应用适应性和易编程等多方面的特性,KNL众核处理器可以与CPU相同的编程模式、语言和优化方法,这对Intel众核处理器抢占市场有较大帮助。

 

中科院寒武纪这样的NPU是专门针对深度学习而开发的芯片,虽然在绝对性能上不输于GPGPU,在性能功耗比上亦相对于于CPU会有百倍以上的优势,但在财力和商业化能力上,无论是中科院还是新成立的寒武纪公司都和Intel、英伟达、赛灵思、阿尔特拉等国际巨头相距甚远。

 

FPGA的双精浮点性能虽然相对于英伟达的GPGPU和Intel的众核芯片要逊色不少——阿尔特拉展示的一款可以用于深度学习和科学计算的FPGA其双精浮点性能为1.5TFlops。虽然性能稍弱一些,但是性能功耗比却非常惊艳,以达到50GFlops/W,是Intel众核芯片的四倍有余,如果将FPGA用于机器学习,那么整个系统对于基于标准CPU和GPU的服务器有明显的性能功耗比优势,在大规模部署后可以大幅节省电费开销。

 

不过将FPGA用于深度学习,也存在一些不足。如果说性能功耗比是FPGA占优的一方面,那么性价比就是FPGA的劣势,FPGA可以通过编程灵活改变自己的内部逻辑的同时,也必然意味着计算资源的大量浪费。事实上如果专门开发一款和写入FPGA的电路相同的芯片,同产量理论成本只有FPGA的几分之一。也就是说保守估计,相同的性能FPGA的成本要高几倍。事实上,目前FPGA只用于小规模产品或测试性质的验证中以规避流片的风险。随着芯片复杂程度的提高,芯片面积的增大这个问题还会越来越突出。这也是FPGA诞生那么多年来一直“养在深闺人未识”的重要原因。

 

FPGA是否能从此走向“深度学习”也是未知数——人的大脑是串行为主的思维模式,而且人类大脑的开发是相对有限的,有很大的开发潜力,而FPGA是并行化很高的元件,而且硬件资源是有限的。另外,培养一个FPGA编程工程师比培养一个编写应用软件的工程师难度大多了,如果采用FPGA自己编写自己的软件的话,实在过于富有想象力——人不善于解决的问题就交给电脑去解决,这非常符合人类逻辑,但是未必符合机器的规律。AMD一位工程师曾经提到过即使是最先进的自动设计软件进行电路设计也总是比人手工设计的芯片面积大20%,同时还慢20%......

 

即便存在一些不足,CPU+FPGA依旧有应用于深度学习的潜力,如果CPU+FPGA异构计算技术如果在机器学习上成为主流,那么FPGA的市场规模将会进一步扩大。

 
关注与非网微信 ( ee-focus )
限量版产业观察、行业动态、技术大餐每日推荐
享受快时代的精品慢阅读
 

 

继续阅读
升级固件写FLASH如何避免让FPGA发生意外?
升级固件写FLASH如何避免让FPGA发生意外?

FPGA配置两种模式:主动配置和被动配置方式,采用主动配置下,我们就需要一片FLASH来存储FPGA固件,那么我们在升级固件写FLASH的过程中如何避免因意外情况发生导致升级失败而使FPGA变砖呢?下面就由笔者带领大家来挖山掘石、一探究竟。

不使用残差连接,超深卷积网络也能有效训练
不使用残差连接,超深卷积网络也能有效训练

本论文介绍了如何利用动态等距和平均场理论完成一万层原版卷积神经网络的训练,研究者证明了仅仅使用恰当的初始化机制就能有效训练一万层原版 CNN 甚至更多层。研究者通过信号传播的平均场等理论导出该初始化机制,并表明在关键线上初始化的网络信号能高效传播,因此即使不使用残差连接或密集型连接等方式,超深卷积网络也能有效地训练。

为什么说深度学习和MCU是天作之合?
为什么说深度学习和MCU是天作之合?

Pete Warden,是谷歌TensorFlow团队成员,也是TensorFLow Mobile的负责人,常年遨游在深度学习的大海。

人工智能玩法多样,意味着芯片厂商机会更多?

继上个月向国内媒体隆重推出面向人工智能领域的SensAI平台后(参见与非网报道:《莱迪思:看好网络边缘计算市场,FPGA在AI领域能做的事情还有很多》),在此次CES ASIA展会上,莱迪思半导体亚太区资深事业发展经理陈英仁向与非网记者介绍了该公司基于SenseAI平台的几个设计实例。

深度学习完了?AI寒冬又要来了?
深度学习完了?AI寒冬又要来了?

几天之前,国内科技媒体,尤其是AI媒体之间刷屏了一篇文章。其原作者是机器视觉专家Filip Piekniewski ,标题叫做《AI Winter is Well on its Way》。这篇文章在国内有各种翻译的版本,并配了很多标题。但主旨差不多是一样的:深度学习完了!AI寒冬又要来了!

更多资讯
典型的SDSoC设计开发的几个步骤
典型的SDSoC设计开发的几个步骤

类比到FPGA SoC的应用开发中,用户最关注的部分往往是算法的最终实现和算法模块的优化——包括IP或是软件功能块——SDSoC的设计理念正是让用户能够更加专注于这些核心问题,其他问题SDSoC帮你搞掂。从这个意义上看,SDSoC在“简单”的背后确实不简单。

HDL仿真器基于事件的仿真算法
HDL仿真器基于事件的仿真算法

目前,HDL仿真器主要有三种实现算法(机制):基于时间的算法(Time-Based)、基于事件的算法(Event-Based,EBS)和基于周期的算法(Cycle-Based,CBS)。

当FPGA越来越像SoC,FPGA跟ASIC还有啥区别
当FPGA越来越像SoC,FPGA跟ASIC还有啥区别

随着处理器被添加到传统FPGA中,可编程性被添加到ASIC中,FPGA和ASIC的分界线日益模糊。

FPGA的两条发展之路,怎么走更稳?
FPGA的两条发展之路,怎么走更稳?

在第一条路上,FPGA不断优化,主要用于加速数据中心工作负载。 数据中心是大型供应商关注的下一个“圣杯”。

想要入门eFPGA,看这一篇就够了
想要入门eFPGA,看这一篇就够了

嵌入式FPGA(eFPGA)是指将一个或多个FPGA以IP的形式嵌入ASIC,ASSP或SoC等芯片中。

Moore8直播课堂
电路方案