NGC 的进一步扩展包括:可使用 NVIDIA TensorRT 推理加速器、兼容 ONNX、即时支持 MXNet 1.0
 
NVIDIA 近日宣布将 NVIDIA GPU Cloud (NGC)支持扩展至 NVIDIA TITAN,使数十万采用桌面级 GPUAI 研究人员能够利用 NGC 的强大功能。
 
NVIDIA 还公布了 NGC 的功能扩展,包括针对 NGC 容器注册新增的软件和其他主要更新,为研究人员提供了更广泛、更强大的工具,有助于其开展 AI 和高性能计算研发。
 
采用基于 NVIDIA® Pascal™架构的 TITAN GPU 的客户可即刻注册免费 NGC 帐户,获得针对 GPU 优化的深度学习与 HPC 软件和工具目录的全面访问权限。其他可支持的计算平台还包括 NVIDIA DGX-1™、DGX Station 以及 Amazon EC2 上启用 NVIDIA Volta 的实例。
 
NGC 容器注册的扩展步伐迅速,其中可用的软件包括针对 NVIDIA 优化的深度学习框架(如 TensorFlow 和 PyTorch)、第三方管理型 HPC 应用程序、NVIDIA HPC 可视化工具以及 NVIDIA 的可编程推理加速器 NVIDIA TensorRT™ 3.0。
 
NVIDIA 副总裁兼企业系统部总经理 Jim McHugh 表示:“NVIDIA GPU Cloud 旨在为 AI 开发者提供所需的软件,助力其完成开创性的工作。如今,针对 GPU 优化的软件已经可为数十万采用 NVIDIA 桌面级 GPU 的研究人员所用,NGC 将成为推进人工智能突破的催化剂,也将成为全球开发者的首选资源。”
 
GE Healthcare 是率先采用 NGC 的企业之一。作为首家采用 NGC 的医疗设备制造商,该公司正在利用 NGC 容器注册的深度学习软件,加紧步伐将全球最先进的 AI 引入其全球范围内的 50 万台成像设备中,旨在提高病患护理水平。
 
全新 NGC 容器、及其更新与特性
除了使 NVIDIA TensorRT 可用于 NGC 容器注册,NVIDIA 还宣布了以下 NGC 更新:
 
支持面向 TensorRT 的开放神经网络交换 (ONNX)
即时支持和使用首版 MXNet 1.0
可使用百度 PaddlePaddle AI 框架
 
ONNX 是 Facebook 和微软最初创建的开放格式,开发者可通过此格式,在不同框架之间交换模型。在 TensorRT 开发容器中,NVIDIA 创建了可将 ONNX 模型部署至 TensorRT 推理引擎的转换器,让应用程序开发者能够更轻松地将低延迟、高吞吐量的模型部署至 TensorRT。
 
这些附加功能让开发者能够一站式地进行软件采购,以支持其从研究、应用开发到训练和部署的所有 AI 计算需求。
 
NGC 于十月份正式推出,亦面向 AWS 的 NVIDIA Volta GPU 用户、以及所有 NVIDIA DGX-1 和 DGX Station 用户免费提供。日后,NVIDIA 将持续扩大 NGC 的可用范围。