软件一直是智能应用领域的创新助推器,而硬件正迅速成为人工智能(AI)领域的核心引擎。人脸识别、自动驾驶、虚拟辅助,以及众多其他应用都要依赖AI硬件。预计到2025年,AI的市场规模将达到650亿美元。

 

神经网络等并行计算系统对于能够处理海量数据并执行自我迭代训练有着巨大的需求,硬件也因此成为这一领域的主导力量。在这个数据量巨大的环境中,AI加速器等硬件系统占据了舞台中心。 
AI加速器具有如下众多优势:

 

● 能效相较于通用型计算设备显著提高 

 

● 降低计算延迟以支持实时应用

 

● 具备可扩展性,能够取得性能速度改善,其程度甚至能与所用的内核数达成线性扩展 

 

● 异构架构支持系统容纳多个专用处理器以执行特定任务 

 

AI加速器支持数据中心和边缘

AI加速器主要在两大领域发挥作用:数据中心和边缘。现在的数据中心需要大规模的可拓展计算架构,尤其是那些可支持多达数千台物理服务器和数百万台虚拟机的超大规模数据中心,对大规模可扩展计算架构的需求极为迫切,这一市场需求使得一些企业凭借加速AI工作负载这一业务发展壮大。例如,Cerebras为Cerebras CS-1深度学习系统创造了晶圆级引擎(WSE)。WSE面积为46,225mm²,拥有1.2 万亿个晶体管和40万个经过AI优化的内核,是迄今为止最大的芯片。WSE可提供更大的算力、存储和通信带宽,能够支持AI研究达到前所未有的速度和规模。与之相对的是硬件基板面有限且节能至为关键的边缘应用。如果边缘SoC内部集成了AI加速器IP ,则它可以快速提供必要的智能功能从而支持各种应用,例如智能手机或自动化工厂机器人中运行的交互式程序。对于在边缘提供智能应用,支持它们的 AI加速器必须经过优化,以具备诸如实时计算延迟、超高能效、失效安全运行以及高度可靠性等特征。

 

并不是所有AI应用都需要像WSE这么大的芯片,例如以下类型的硬件AI加速器:

 

● 能够执行时间神经网络处理的图形处理单元 (GPU) 

 

● Google张量处理单元 (TPU) 等空间加速器 

 

● Sambanova的DataScale等粗粒度可重构计算架构 (CGRA) 

 

● 经过向量处理扩展的大规模多核标量处理器 

 

所有此类芯片均可以几十个或几百个组合使用,形成更大的系统,处理更大型的神经网络。比如说,如果将Google的TPU合并到pod配置中,那么可以带来超过100 petaFLOPS的处理能力来训练神经网络模型。NVIDIA旗下应用深度学习研究团队推出的Megatron创造了一个带有83亿参数转换器的语言模型,可提供8路模型并行和64路数据并行功能用于自然语言处理。要执行这一模型,就必须开发出具有 312 teraFLOP FP16计算能力的NVIDIA A100 GPU。另一种新兴的硬件类型是 CGRA,它能在编程不同网络时,在性能、能效与灵活性方面巧妙地实现权衡。

 

在这场关于AI硬件的讨论中,软件栈是不容忽视的存在,因为它能实现系统级性能表现,并确保充分利用硬件。TensorFlow等开源软件平台为开发人员提供各类工具、库和其他资源,帮助他们轻松构建和部署机器学习应用。Facebook Glow等机器学习编译器不断涌现,有助于促成高级软件框架与各种AI加速器的连接。

 

种类全面的AI设计产品组合

硬件已经成为AI应用的关键组件,但此类组件仍然面临特有的设计难题,在云和边缘应用想要突破当前硅技术的功耗、性能和面积(PPA)极限时尤其如此。对数据中心来说,件设计呈现多级物理分层、局部同步和全局异步架构、尺寸庞大和布局分散等特征。在边缘应用中, AI设计必须能够处理数以百计的设计角,以满足超低功耗要求,实现异构集成并具备超乎寻常的多变性。

 

新思科技能够为AI硬件设计人员提供业内最为全面的AI设计产品组合,帮助他们攻克此类难题。我们的产品,以边缘设备IP、Zebu® Server 4仿真系统,全面辐射整个范围,并能快速将载复杂的工作负载引入到Fusion Design Platform,实现全流程的、且经AI改进结果质量(QoR)和结果转化时间(TTR)的IC设计。

 

新思科技还推出DSO.ai™(设计空间优化AI),这是业内首款针对芯片设计的自主AI应用。DSO.ai™ 在非常大的芯片设计解决方案范围内寻找优化目标。它减少了设计工作流中自动执行的间接决策,从而大幅加快了专用AI加速器的设计进度。

 

随着AI应用更加深入地融入我们的生活,AI加速器等硬件将会继续发挥关键作用,实现实时响应,为智能设备和系统创造更大价值。