Super Micro Computer, Inc. (SMCI) 为企业级运算、储存、网络解决方案和绿色计算技术等领域的全球领导者,宣布推出一项革命性技术,可简化大规模GPU部署,设计符合未来需求,甚至支持尚未公开的技术。通用GPU服务器将为资源节约型服务器提供极大灵活性。
此通用GPU系统架构是能够结合支持多种GPU外形尺寸、CPU选择、储存和网络选项的新技术,整体经过优化,提供拥有独特设置和高度可扩展的系统。系统可针对每位客户的特定人工智能(AI)、机器学习(ML)和高性能计算(HPC)应用程序进行优化。世界各地的组织都要求为其下一代运算环境提供新的选择,要有足以容纳新一代CPU和GPU的散热顶部空间。
Supermicro总裁暨首席执行官Charles Liang表示:“Supermicro的通用GPU服务器对本行业和数据中心基础架构来说都是一大突破。通过这个性能强大、模块化且符合未来需求的单一平台,我们彻底改变了CTO和IT管理员规划新部署的基本规则。这是一种目前极佳的、灵活的、革命性的系统设计,可实现大规模且快速的部署。”
该通用GPU平台首先支持搭载第三代AMD EPYC 7003处理器搭配MI250 GPU或NVIDIA A100 Tensor Core 4-GPU,以及搭载内建AI加速器的第三代Intel Xeon可扩展处理器搭配NVIDIA A100 Tensor Core 4-GPU的系统。这些系统强化了热容量设计,可采用高达700W的GPU。
Supermicro通用GPU平台是为采用开放式标准设计的各种GPU搭配使用而设计的。通过遵循一套公认的硬件设计标准,例如通用底板(UBB )和OCP加速器模块(OAM ),以及PCI-E和平台专用接口,IT管理员能够针对其HPC或AI工作负载选择合适的GPU架构。这将满足许多企业的严苛需求,并将简化GPU解决方案的安装、测试、生产和升级。此外,IT管理员将能够轻松选择合适的CPU和GPU組合,为用户打造出真正优化的系统。
4U或5U通用GPU服务器将适用于使用UBB标准,以及PCI-E 4.0,还有即将推出的PCI-E 5.0加速器。此外,还提供32个DIMM插槽以及多种存储和网络选项,也可使用PCI-E标准进行连接。Supermicro通用GPU服务器可容纳使用SXM或OAM外形尺寸底板的GPU,运用非常高速的GPU与GPU互连,例如NVIDIA NVLink或AMD xGMI Infinity结构,或通过PCI-E插槽直接连接GPU。此系统将支持目前所有主要的CPU和GPU平台,为客户提供适合其实际工作负载的选择。
该服务器的设计可提供最大气流,并可容纳当前及未来的CPU与GPU,满足其需要的高散热设计功率(TDP)CPU和GPU,以达到最大的应用程序性能。Supermicro通用GPU服务器提供液冷选项(直接冷却芯片),可满足CPU和GPU所需的加强冷却解决方案。此外,依靠模块化设计,此服务器的某些特定子系统可进行替换或升级,从而延长整个系统的使用寿命,减少完全替换每一代新的CPU或GPU技术所产生的电子垃圾。
“NVIDIA A100 Tensor Core GPU能够加速所有AI应用和超过2700种HPC应用,”NVIDIA数据中心计算产品管理高级总监 Paresh Kharya表示。“Supermicro的新服务器平台集成了NVIDIA A100,为企业提供了一个强大的系统,可以为包括HPC、AI推理、培训和机器学习在内的各种工作负载提供卓越的性能和生产力。”
AMD数据中心GPU与加速处理全球副总裁Brad McCredie表示:“AMD非常重视与Supermicro的密切关系。我们热切期待Supermicro通用GPU系统,这将是展示我们先进的AMD EPYC CPU和AMD Instinct GPU创新成果的理想平台,可以满足HPC行业的需求以及对计算加速的数据中心工作负载的需求。
其他关于Supermicro通用GPU的信息可通过网络查询,并可以通过与2022年4月21日上午10:00 太平洋时间举行的网络研讨会进行了解。