Supermicro推出搭载NVIDIA A100 GPU的全集成式系统

Supermicro推出搭载NVIDIA A100 GPU的全集成式系统。Supermicro显著提升了行业内涵盖面最广且优化用于AI、深度学习、数据科学和计算工作负荷的GPU服务器产品组合 , 同时提供新款NVIDIAA100GPU、第三代NVIDIANVLink , 以及NVIDIANVSwitch的全方位支持

加州圣何塞2020年5月14日–作为企业计算、存储、网络解决方案和绿色计算技术的全球领先公司 , SuperMicroComputer,Inc.(纳斯达克股票代码:SMCI)今日宣布推出两款适用于人工智能(AI)深度学习应用的新系统 , 使配备全新NVIDIAA100?TensorCoreGPU的第三代NVIDIAHGX?技术得以全面提升 , 同时还为公司品类多样的1U、2U、4U和10UGPU服务器产品组合提供全方位支持 。 NVIDIAA100是首个采用弹性设计 , 且将培训、推理、HPC和分析融为一体的多示例GPU 。

“通过扩展我们行业领先的GPU系统和NVIDIAHGX-2系统技术产品组合 , Supermicro将推出一个全新2U系统 , 此系统应用新款NVIDIAHGX?A1004GPU主板(之前的代码名称为Redstone)以及一个全新4U系统 , 该系统基于新款具有5PetaFLOPSAI性能水平的NVIDIAHGXA1008GPU主板(之前的代码名称为Delta) 。 ”Supermicro首席执行官兼总裁CharlesLiang说道 。 “采用GPU加速的计算在革新 , 并将继续用于数据中心的转型 , Supermicro由此将为客户带来具有前沿技术水平的系统进步 , 以帮助其实现各种计算规模的加速最大化 , 并同时对GPU应用进行优化 。 这些新系统将显著提升所有用于HPC、数据分析、深度学习和深度学习推理的加速工作负荷 。 ”

作为HPC和AI应用的平衡数据平台 , Supermicro全新2U系统搭载4个采用PCI-E4.0的直连式NVIDIAA100TensorCoreGPU , 以实现性能最大化 , 以及用于GPU到GPU互联的NVIDIANVLink?技术 , 最高速度可达600GB每秒 , 从而提升了NVIDIAHGXA1004GPU主板性能 。 这款设计先进的GPU系统 , 加速了计算、网络和存储性能 , 且支持单个PCI-E4.0x8以及最多4个用于GPUDirectRDMA高速网卡和存储的PCI-E4.0x16扩展槽 , 例如可支持最大带宽200Gb每秒的InfiniBand?HDR? 。

“随着AI模型面临更高层次的挑战 , 如准确会话AI、深度推荐系统和个性化医疗等更高层面的技术难题 , AI型号的复杂程度正呈现爆炸式增长趋势 。 ”NVIDIA加速计算业务部总经理兼副总裁IanBuck说道 。 “Supermicro将NVIDIAHGXA100平台用于其新款服务器 , 由此为客户带来强大的产品性能和可扩展性 , 从而研究人员可采用前所未有的速度为最复杂的Al网络进行培训 。 ”

Supermicro新款4U系统采用AI和机器学习应用优化 , 支持8个A100TensorCoreGPU 。 采用8个GPU的4U规格 , 尤其适合需要随着其处理要求的提升而扩大其应用规模的客户 。 新款4U系统将搭载一块NVIDIAHGXA1008GPU主板 , 其中配备8个A100GPU多对多(all-to-all)连接至NVIDIANVSwitch? , 以实现600GB每秒的GPU到GPU最大带宽 , 以及8个用于GPUDirectRDMA高速网卡的扩展槽 。 这款扩展平台尤其适合深度学习应用 , 数据中心可将其用于创建下一代AI , 同时支持10个x16扩展槽 , 以最大化提升数据科研人员的生产效率 。

通过配备新款NVIDIAA100GPU , 涵盖Supermicro品类众多的1U、2U、4U和10U多GPU服务器产品组合 , 其性能的显著提升 , 客户可拭目以待 。 Supermicro全新推出的A+GPU系统支持最多8个全高度双宽(或单宽)GPU , 其中通过直插式PCI-E4.0x16连接CPU到GPU通道 , 无需采用任何PCI-E交换机 , 即能获得最低的时延性和最高的带宽 , 以实现最大化加速 。 此系统还支持最多3个额外的高性能PCI-E4.0扩展槽 , 可用于多种用途 , 包括最高100G的高性能网络连接传输 。 附加的AIOM插槽可支持SupermicroAIOM卡或OCP3.0夹层卡 。


推荐阅读