欧美和亚洲多国家及地区机架级制造产能提升,加快新AI和HPC技术的交付,功率密度可达每台机架100千瓦
Supermicro, Inc.(纳斯达克股票代码:SMCI)作为AI、云端、存储和 5G/边缘领域的全方位 IT 解决方案制造商, 正在扩展其人工智能(AI)和高性能计算(HPC)供货量和先进的液冷服务器解决方案。
Supermicro在全球的完整机架级供货力,正在凭借位于北美、欧洲和亚洲的数个先进的整合制造厂不断扩大。Supermicro正在积极考虑未来制造的扩张和地点,以满足客户对Supermicro人工智能和高性能计算机架级解决方案产品组合不断增长的需求。
Supermicro总裁暨首席执行官梁见后(Charles Liang)表示:“凭借全球布局蓝图,我们现在能每月提供5,000 台机架,以支持大量要求完全整合的液冷机架,且每机架高达100千瓦的订单。我们预估,随着CPU和GPU的运行温度持续升高,将有多达20%的新数据中心采用液冷解决方案。我们领先的机架级解决方案,由于全球不断增长的人工智能数据中心发展,而有极高的需求。在设计和执行过程的初期,应考虑完整的机架级和液冷服务器解决方案,这将有助缩短供货时间,以满足对人工智能和超大规模数据中心的迫切需求。”
Supermicro维持着高规格“Golden SKU”库存,可以满足全球部署的快速供货需求。对于运行最新生成式人工智能应用的大型云端服务供货商和企业数据中心,将迅速受益于全球供货时间的缩减。Supermicro广泛的服务器范畴,从数据中心到边缘(物联网)皆可完美整合,从而提升采用率并吸引更多客户。 随着近期推出的MGX系列产品,搭载NVIDIA GH200 Grace™ Hopper™超级芯片和NVIDIA Grace™ CPU超级芯片,Supermicro将持续扩展针对人工智能的优化服务器。结合现有的产品线,包括针对大型语言模型优化的NVIDIA HGX 8-GPU解决方案,以及NVIDIA L40S和L4的产品,再加上Intel Data Center MAX GPUs、Intel® Gaudi®2,以及AMD Instinct™ MI系列 GPU,Supermicro能应对所有范畴的人工智能训练和推理应用。Supermicro的All-Flash存储服务器搭载NVMe E1.S和E3.S存储系统,加速了各种人工智能训练应用的数据存取,实现更快速的运行。高性能计算应用方面,搭载GPU的Supermicro SuperBlade可以降低高规模拟应用的运行时间并同时减少功耗。
与现有产业平均水平相比,当液冷技术整合于数据中心时,可将数据中心的电能使用效率(PUE)降低高达 50%。在运行生成式人工智能或高性能计算仿真应用时,减少能源足迹和借此产生较低的电源使用效率,可显著降低数据中心的营运支出。
通过Supermicro提供的机架级整合和部署服务,客户在考虑其独特商业目标的同时,可以从经过验证的参考设计来实现快速安装,并能在之后与通过Supermicro认证的专家合作,共同设计针对特定工作负载的优化解决方案。在服务器交付后,只需将机架连接电源、网络和液冷基础设施,就可实现即插即用解决方案。Supermicro致力于提供完整的数据中心 IT 解决方案,包括现场交付、部署、整合和基准检验,以实现最佳的营运效率。