Super Micro Computer, Inc. (SMCI) 为企业级运算、储存、网络解决方案和绿色计算技术等领域的全球领导者,宣布推出搭载NVIDIA Ampere architecture GPU以及內建AI加速器的第3代Intel Xeon可扩展处理器的全新系统(Supermicro X12系列)。这些服务器专为需要低延迟和高应用性能的AI应用所设计。2U NVIDIA HGX A100 4-GPU系统适于大规模部署具有高速CPU-GPU和GPU-GPU互连的现代AI训练丛集。而Supermicro 2U 2-Node系统则可通过共享电源供应和冷却风扇来减少能耗和成本,降低碳排放,同时可匹配工作负载选用多款GPU加速器。这两款系统皆内含由目前最新的Intel Software Guard Extensions (Intel SGX) 实现的高级安全功能。
Supermicro总裁暨首席执行官Charles Liang表示:“Supermicro工程师再度为我们丰富多元的高性能GPU服务器系列打造出了全新产品,相比于市场上的其他设计更能节省成本、空间以及能耗。凭借创新的设计,我们为客户的AI和HPC(高性能运算)工作负载,提供可搭载4个NVIDIA HGX A100(代号:Redstone)GPU加速器的2U高密度GPU系統。此外,我们的2U 2节点系统经过独特设计,可共享电源供应和散热元件,进而降低营运成本以及对环境的影响。”
此款2U NVIDIA HGX A100服务器采用第3代Intel Xeon可扩展处理器平台,支持Intel Deep Learning Boost Technology,且针对分析、训练和推理工作负载进行了优化设计。此系统可搭载4颗A100 GPU并以NVIDIA NVLink技术完全互连,提供高达2.5 petaflops的AI性能。其高达320GB的GPU内存,可加速企业数据科学以及AI方面的突破。对于如BERT大型推理等复杂型对话式AI模型,此系统比上一代GPU的演算快了4倍,而在BERT大型AI训练方面则有3倍的性能提升。
此外,这些系统采用高级散热和冷却设计,成为优先考虑节点密度和电源效率的高效能丛集的理想选择。这些系统还可以采用液冷系统,从而节省更多的运营成本。该平台亦支持Intel Optane持续型内存(PMem),在GPU上进行处理之前,可以将更大的模型储存在靠近CPU的内存中。对于需要多系统互动的应用,此系统还可以配备4张NVIDIA ConnectX-6 200Gb/s网速的InfiniBand卡,以1:1 GPU-DPU的比例支持GPUDirect RDMA。
全新的2U 2节点是一种节能的资源节省架构,设计能让每个节点支持至多3张双倍宽度的GPU。每个节点还配备一个具有多达40个核心、內建AI及HPC加速器的第3代Intel Xeon可扩展处理器。广泛的AI、渲染和VDI应用都能从这种CPU和GPU的平衡设计中受益。该系统配备Supermicro的高级I/O模块(AIOM)扩充插槽,具有快速灵活的网络连接功能,可在运行工作负载和处理深度学习模式时负荷庞大的数据流量,满足高度需求的AI/ML应用程序、深度学习训练和推理。本系统也是多运行个体的高级云游戏和许多其它计算密集型VDI应用程序的理想选择。此外,虚拟内容交付网络(vCDN)能满足对流媒体服务日益增长的需求。系统内建的备用的电源供应器,能供任何一个节点都能在发生故障时使用相邻节点的电源供应器。