- 采用最新 NVLink 技术,支持 8 个 NVIDIA Tesla V100 GPU 加速器,提供出众的性能和系统密度
 
- 美超微在 2018 年 GPU 技术大会上展示 GPU 优化系统,具有 NVIDIA Tesla V100 32GB、NVLink 和最高 GPU 密度等一流功能,满足市场对深度学习、人工智能和大数据分析应用的 10 倍增长需求
 
企业计算、存储和网络解决方案以及绿色计算技术领域的全球领导者美超微电脑股份有限公司 (Super Micro Computer, Inc.)今天在圣何塞麦克内里会议中心举办的 GPU 技术大会(至 3 月 29 日)的 215 号展位上,展示业界最广泛的 NVIDIA Tesla V100 PCI-E 和 V100 SXM2 GPU 加速器支持型 GPU 服务器平台。
 
美超微提供配有 Tesla V100 PCI-E 和 V100 SXM2 32GB GPU 的最高性能 GPU 服务器 
 
采用新一代 NVIDIA NVLink 互联技术的美超微新款 4U 系统经过优化,实现性能最大化,可最大程度上加快高度并行的应用,包括人工智能、深度学习、自动驾驶汽车、智能城市、医疗健康、大数据、高性能计算 (HPC) 和虚拟现实等。SuperServer 4029GP-TVRT 支持 8 个 NVIDIA Tesla V100 32GB SXM2 GPU 加速器,具有最大 GPU 到 GPU 带宽,支持集群和超大规模应用。该系统整合了最新的 NVIDIA NVLink 技术与超过 PCI-E3.0 五倍的带宽,采用独立的 GPU 和 CPU 热量分区设计,确保在最苛刻的工作负载下性能和稳定性不受影响。
 
美超微总裁兼首席执行官梁见后 (Charles Liang) 表示:“在最初的内部基准测试中,我们的 4029GP-TVRT 系统能够在 ResNet-50 中达到每秒 5,188 张图片,在 InceptionV3 工作负载中实现每秒 3,709 张图片。我们还发现,在采用 GPU Direct RDMA 升级至多款系统时,线性性能也得到了显著提升。我们的最新创新将性能优化的 1U 和 4U 系统中内存扩大一倍的新款 NVIDIA V100 32GB PCI-E 和 V100 32GB SXM2 GPU 与新一代 NVLink 相结合,凭借这一创新,我们的客户能够加快他们的应用和创新,帮助解决全球最复杂和最具挑战性的问题。”
 
NVIDIA 副总裁兼加速计算总经理 Ian Buck 称:“美超微的高密度服务器已针对 NVIDIA Tesla V100 32GB 数据中心 GPU 进行了优化,企业客户将受益于这款服务器的全新计算效率水平。V100 的内存扩大一倍,不仅将复杂深度学习和科学应用的计算速度提高 50%,还通过减少对内存优化的需求,提升开发人员生产力。”
 
Preferred Networks 首席技术官 Ryosuke Okuta 说:“在 Preferred Networks,我们不断利用美超微的高性能 4U GPU 服务器,为我们的私人超级计算机提供动力。这些一流的系统已为我们当前的超级计算机应用提供支持,我们已开始部署美超微配有 VIDIA Tesla V100 32GB GPU 的新款 4U GPU 优化系统,为我们即将推出的新款私人超级计算机提供动力支持。”
 
美超微还展示了性能优化的 4U SuperServer 4029GR-TRT2 系统,该系统支持多达 10 个 PCI-E NVIDIA Tesla V100 加速器,通过采用美超微 GPU 优化的创新单根复杂 PCI-E 设计,显著改善了 GPU 对等通信性能。密度更高的 SuperServer 1029GQ-TRT 在 1U 机架中支持 4 个 NVIDIA Tesla V100 PCI-E GPU 加速器,新款 SuperServer 1029GQ-TVRT 在 1U 中支持 4 个 NVIDIA Tesla V100 SXM2 32GB GPU 加速器。
 
通过整合大数据分析和机器学习、最新的 NVIDIA GPU 架构和改进的机器学习算法,深度学习应用要求多个 GPU 的处理能力必须高效通信,以拓展 GPU 网络。美超微的单根 GPU 系统让多个 NVIDIA GPU 能够高效通信,实现延迟最小化和化吞吐量最大化(由 NCCLP2PBandwidthTest 衡量)。