人工智能(AI)热潮持续攀升,AI 晶片的竞争也日趋激烈,而 GPU 近年来可说是跃升为 AI 晶片领头羊。为了不让 GPU 专美于前,以 FPGA 为主的英特尔(Intel)也加紧脚步,拓展创新技术,加速 AI 部署;像是携手微软(Microsoft),运用 FPGA 升级 Bing 智能搜寻引擎(Intelligent Search),以迎接现今云端数据中心所带来的挑战。


英特尔指出,FPGA 的优势在于,具备高效灵活的架构,可加速 AI 工作负载的效能,包括机器学习和深入学习,同时也可以加速其他各种工作负载的效能,如网路、储存装置、资料分析和高效能运算等等。


然而,面对现今以资料为中心的世界,使用者对搜寻引擎的要求比以前更多,FPGA 该如何支持智能搜寻?对此,英特尔表示,像是 Bing 这一类的智能搜寻引擎应用程式,Intel FPGA 可让即时 AI 可以透过提供完整的自订硬体加速器,来辅助 Intel Xeon 处理器进行深入神经网路的大量计算需求;同时藉由快速变化的 AI 模型保持不断发展的弹性与达到高吞吐量,发挥最大效能以提供即时的 AI 支援。


据悉,透过即时的 AI 技术支援,进阶的 Bing 搜寻引擎可以协助人们做得更多、学得更快;可以为人们提供答案而不是网页,让系统能理解文字及文字背后的意义,提供上下文和文章意图搜寻。


举例来说,使用者可以自已查看各种问题,像「咖啡对身体健康好不好」或「瑜珈对生理健康有何好处」,Bing 智能搜寻引擎将会提供各种观点;甚至连「一份热狗的卡路里有多少」这种问题,Bing 都可以分享卡路里及消耗卡路里须要跑步几分钟这类讯息给使用者,以满足现今使用者越来越高的搜寻需求。