【2023 年 3 月 21 日美国加州圣何塞讯】Super Micro Computer, Inc. (NASDAQ:SMCI) 为AI/ML、云端、存储和5G/智能边缘应用的全方位IT解决方案供应商,宣布其配备最新NVIDIA HGX H100 8-GPU系统的顶级全新GPU服务器开始出货。该服务器整合了最新的NVIDIA L4 Tensor Core GPU至从边缘到数据中心的各种应用优化服务器中。
Supermicro总裁暨首席执行官梁见后(Charles Liang)表示:“Supermicro提供业界最全面的 GPU系统产品组合,包含 8U、6U、5U、4U、2U 和 1U 外形尺寸的服务器,并支持全系列新NVIDIA H100 GPU的工作站和SuperBlade系统。 通过这款NVIDIA HGX H100 Delta-Next 服务器,客户将获得相较上一代 AI 训练应用9倍的性能提升。 我们的GPU服务器采用创新的气流设计,能全面降低风扇转速、噪音和功耗,进而降低总拥有成本(TCO)。 此外,对于正在寻找符合未来需求的数据中心的客户,我们也为其提供完整的机柜级(rack-scale)液冷选项。 ”
Supermicro的高性能新型8U GPU服务器现已大量出货。 这款全新 Supermicro 8U 服务器特别针对AI、DL、ML和HPC工作负载进行了优化,搭载能达到高GPU-to-GPU通信的NVIDIA HGX H100 8-GPU,使用高速NVIDIA NVLink® 4.0技术、NVSwitch 互连,以及 NVIDIA Quantum-2 InfiniBand 和 Spectrum-4 以太网,从而大幅突破 AI 的障碍。 此外,Supermicro还提供多种性能优化的GPU服务器配置,包括直连/单根(single-root)/ 双根(dual-root) CPU-to-GPU,另外还有前置或后置 I/O 机型,在标准和OCP DC机柜 配置中使用AC与DC 电源。 Supermicro X13 SuperBlade®机壳可在一个 8U 机壳内放入 20 个 NVIDIA H100 Tensor Core PCIe GPU 或 40 个 NVIDIA L40 GPU,6U机壳则最多可使用10个NVIDIA H100 PCIe GPU或20个NVIDIA L4 TensorCore GPU。 这些新系统为运行NVIDIA AI 平台软件层 NVIDIA AI Enterprise提供理想的优化加速功能。
此类服务器内置的液冷系统也适用于其他众多GPU 服务器。 此外,Supermicro 发布了一款液冷式 AI 开发系统 (塔式或机架式配置皆可),内含两个 CPU 和四个NVIDIA A100 Tensor Core GPU,适合办公室和家庭办公环境,并能部署在部门和企业集群中。
Supermicro系统支持新的 NVIDIA L4 GPU,与前几代产品相比,加速和能效均提升数倍。 此系统同样适用于企业、云和边缘的 AI 推理、视频流、虚拟工作站和图形应用程序。 L4 采用NVIDIA的AI平台和全堆叠方法,经过优化调整,适合进行各种 AI 应用程序的大规模推理,包括推荐、语音型 AI 虚拟人物助理、聊天机器人、视觉搜索和客服中心自动化等,能提供出色的个性化体验。 L4是适用于主流服务器的高效NVIDIA加速器,拥有高达4倍的AI性能、更高的能源使用效率,还有3倍以上的视频流容量与效率,因此能支持 AV1 编码/解码。 L4 GPU拥有多样化的推理和可视化功能,加上轻巧、节能、单插槽、薄型、72W的低功耗规格,是包括边缘位置在内全局部署的理想选择。
NVIDIA 加速计算产品主管Dave Salvator 表示:“Supermicro 服务器配备新的 NVIDIA L4 Tensor Core GPU,拥有无与伦比的强大性能,让客户能高效且可持续地加快工作负载速度。 NVIDIA L4经过优化,适合用于主流部署,加上外型轻薄,可在72W的低功耗范围内作业,将边缘AI性能和效率提升至全新境界。”
Supermicro最新的PCIe加速解决方案支持打造3D世界、数字孪生、3D模拟模型和工业元宇宙。 除了支持前几代NVIDIA OVX™系统,Supermicro也提供OVX 3.0 配置,配备四个NVIDIA L40 GPU、两个NVIDIA ConnectX-7® SmartNIC、一个NVIDIA BlueField-3® DPU及新的NVIDIA Omniverse Enterprise™软件。