SoC 设计与应用技术领导厂商 Socionext Inc.(以下“公司”)宣布成功开发一款集成有量化深度神经网络(DNN)技术的原型芯片,可为小型、低功耗边缘计算设备提供先进的 AI 处理。

 

受日本新能源与产业技术综合开发机构(NEDO)委托,Socionext 参与了以《先进的低功耗 AI-Edge LSI 技术开发》为课题的项目研究,成功完成了结合量化 DNN 技术的芯片测试,并确认了其运行和性能。该测试芯片搭载有“量化 DNN 引擎”,能以高速、低功耗执行深度学习推理处理。

 

目前,基于通用 GPU 的边缘计算处理器无法满足日益增长的人工智能处理需求。以搭载有图像识别和分析功能的边缘计算设备为例,其系统功耗和发热量与通用 GPU 相比有明显增加,不得不通过提升成本扩容设备等方式满足 AI 处理需求。

 

量化 DNN 引擎


为提高 AI 处理性能并减少系统功耗,Socionext 开发了一款采用“量化 DNN 技术”的专有体系架构,它减少了深度学习所需的参数和激活位。该体系架构将 1-bit (binary)、2-bit (ternary) 低比特率技术、传统 8-bit 技术及公司独创的参数压缩技术结合,以较少的计算资源执行大量计算处理,并减少数据量。

 

除此以外,Socionext 还开发了一种新颖的片上存储技术,可提供高效的数据传输,从而减少深度学习通常所需的大容量片上或外部存储器。

 

通过结合上述新技术,Socionext 将 AI 芯片及“DNN 引擎”原型化,并确认了其功能和性能。 原型化芯片通过“YOLO v3”以不到 5W 的低功耗及 30fps 的速度实现了目标检测,其效率是通用 GPU 的 10 倍。 此外,该芯片还配备了高性能、低功耗的 Arm Cortex-A 系列 CPU,无需外部处理器即可以单芯片执行整个 AI 处理。

 

深度学习软件开发环境


除硬件开发外,Socionext 还构建了深度学习软件开发环境,通过结合 TensorFlow 作为基本框架,允许开发人员用原始低 bit 位进行量化感知训练(Quantization Aware Training)和训练后量化(Post Training Quantization)。 开发新芯片时,用户可以选择最佳量化技术并将其应用于各种神经网络中执行高精度处理,例如在小型低功耗边缘设备上增设最先进的计算机视觉功能,应用于高级驾驶员辅助系统(ADAS)、监控摄像头和工厂自动化等场景。

 

Socionext 目前正在通过对该原型芯片进行评估进一步调整电路优化其性能。公司将继续与合作伙伴一起共同开发并交付 AI-Edge LSI 最终产品,完成 NEDO 的委托项目。


 

搭载有量化 DNN 引擎的 AI 测试芯片


NEDO 项目名称
《创新型 AI 芯片及下一代计算技术开发》
《创新型 AI 边缘计算技术开发》
《先进的低功耗 AI-Edge LSI 技术开发》