加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

Supermicro持续扩展GPU 系统产品组合推出创新的全新服务器为AI、HPC和云工作负载加速

2021/10/15
192
阅读需 5 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

Super Micro Computer, Inc. (SMCI) 为企业级运算、储存、网络解决方案和绿色计算技术等领域的全球领导者,宣布推出搭载NVIDIA Ampere architecture GPU以及內建AI加速器的第3代Intel Xeon可扩展处理器的全新系统(Supermicro X12系列)。这些服务器专为需要低延迟和高应用性能的AI应用所设计。2U NVIDIA HGX A100 4-GPU系统适于大规模部署具有高速CPU-GPU和GPU-GPU互连的现代AI训练丛集。而Supermicro 2U 2-Node系统则可通过共享电源供应和冷却风扇来减少能耗和成本,降低碳排放,同时可匹配工作负载选用多款GPU加速器。这两款系统皆内含由目前最新的Intel Software Guard Extensions (Intel SGX) 实现的高级安全功能。

Supermicro总裁暨首席执行官Charles Liang表示:“Supermicro工程师再度为我们丰富多元的高性能GPU服务器系列打造出了全新产品,相比于市场上的其他设计更能节省成本、空间以及能耗。凭借创新的设计,我们为客户的AI和HPC(高性能运算)工作负载,提供可搭载4个NVIDIA HGX A100(代号:Redstone)GPU加速器的2U高密度GPU系統。此外,我们的2U 2节点系统经过独特设计,可共享电源供应和散热元件,进而降低营运成本以及对环境的影响。”

此款2U NVIDIA HGX A100服务器采用第3代Intel Xeon可扩展处理器平台,支持Intel Deep Learning Boost Technology,且针对分析、训练和推理工作负载进行了优化设计。此系统可搭载4颗A100 GPU并以NVIDIA NVLink技术完全互连,提供高达2.5 petaflops的AI性能。其高达320GB的GPU内存,可加速企业数据科学以及AI方面的突破。对于如BERT大型推理等复杂型对话式AI模型,此系统比上一代GPU的演算快了4倍,而在BERT大型AI训练方面则有3倍的性能提升。

此外,这些系统采用高级散热和冷却设计,成为优先考虑节点密度和电源效率的高效能丛集的理想选择。这些系统还可以采用液冷系统,从而节省更多的运营成本。该平台亦支持Intel Optane持续型内存(PMem),在GPU上进行处理之前,可以将更大的模型储存在靠近CPU的内存中。对于需要多系统互动的应用,此系统还可以配备4张NVIDIA ConnectX-6 200Gb/s网速的InfiniBand卡,以1:1 GPU-DPU的比例支持GPUDirect RDMA

全新的2U 2节点是一种节能的资源节省架构,设计能让每个节点支持至多3张双倍宽度的GPU。每个节点还配备一个具有多达40个核心、內建AI及HPC加速器的第3代Intel Xeon可扩展处理器。广泛的AI、渲染和VDI应用都能从这种CPU和GPU的平衡设计中受益。该系统配备Supermicro的高级I/O模块(AIOM)扩充插槽,具有快速灵活的网络连接功能,可在运行工作负载和处理深度学习模式时负荷庞大的数据流量,满足高度需求的AI/ML应用程序、深度学习训练和推理。本系统也是多运行个体的高级云游戏和许多其它计算密集型VDI应用程序的理想选择。此外,虚拟内容交付网络(vCDN)能满足对流媒体服务日益增长的需求。系统内建的备用的电源供应器,能供任何一个节点都能在发生故障时使用相邻节点的电源供应器。

Supermicro

Supermicro

Supermicro为世界各地的客户提供应用程序优化的服务器、工作站、刀片、存储和GPU系统。基于其先进的服务器构建块解决方案和系统架构创新,Supermicro为行业提供;是IT、数据中心和HPC部署的最佳选择。

Supermicro为世界各地的客户提供应用程序优化的服务器、工作站、刀片、存储和GPU系统。基于其先进的服务器构建块解决方案和系统架构创新,Supermicro为行业提供;是IT、数据中心和HPC部署的最佳选择。收起

查看更多

相关推荐

电子产业图谱