适用于大规模AI训练和推理的一站式数据存储解决方案──数百PB的多层式解决方案提供能支持可扩充式AI工作负载所需的庞大数据容量和高性能数据带宽
Supermicro, Inc.(纳斯达克股票代码:SMCI)作为AI、云端、存储和5G/边缘领域的全方位IT解决方案制造商,推出适用于人工智能(AI)和机器学习(ML)数据存取的完整优化解决方案,覆盖从数据收集到高性能数据传输的各个环节。此全新解决方案能通过将GPU数据传输管道完全利用使AI价值实现时间最小化。在AI训练方面,该解决方案可收集、转换大量PB级原始资料,并加载到企业AI工作流程管道。这种多层式Supermicro解决方案通过证实可在生产制造环境中为人工智能运营(AIOps)和机器学习运营(MLOps)提供PB规模级数据量。Supermicro的多机柜级解决方案旨在降低落地风险,让组织能更快速地训练模型,并迅速将处理后的数据应用到AI推理。
Supermicro总裁兼首席执行官梁见后(Charles Liang)表示:“通过由每机柜20 PB高性能快闪存储容量所驱动并搭载四个专为应用优化的NVIDIA HGX H100 8-GPU的气冷服务器或搭载八个NVIDIA HGX H100 8-GPU的液冷服务器,客户能以机柜规模加速AI和ML应用运行。此项解决方案能为每个存储丛集提供270 GB/s的读取吞吐量和390万IOPS做为最低部署,并轻松扩大至数百PB的规模。借由使用具有PCIe 5.0与E3.S存储装置,以及WEKA Data Platform软件的最新Supermicro系统,这项通过场域测试的机柜级解决方案将可为使用者带来AI 应用性能的大幅提升。有了此项适用于 AI 训练的全新存储解决方案,客户将能完全发挥我们最先进GPU服务器机柜级解决方案的使用潜能,进而降低总拥有成本(TCO)并时提高AI性能。”
为了使GPU有成效地运行,具备低延迟、高带宽数据处理性能的GPU服务器必须要能存取用于大规模 AI 训练运行的未结构化PB量级数据。Supermicro拥有基于Intel和AMD技术的广泛存储服务器产品组合,是AI管道必不可少的要素。这些产品包括Supermicro Petascale All-Flash存储服务器,其中每部服务器拥有983.04* TB的NVMe Gen 5快闪数据容量,可提供高达230 GB/s的读取带宽和3,000万IOPS。本解决方案还包括适用于容量物件层级并具备90个存储硬盘槽的Supermicro SuperServer存储服务器。全球客户已可取得此经过测试的完善解决方案并用于ML、GenAI和其他复杂计算的工作负载。
全新存储解决方案包含:
- All-Flash层级 - Supermicro Petascale Storage Servers
- 应用层级 - Supermicro 8U GPU服务器:AS -8125GS-TNHR 和 SYS-821GE-TNHR
- 物件层级 - Supermicro 90 drive bay 4U SuperStorage Server,运行Quantum ActiveScale物件存储
- 软件:WEKA Data Platform和Quantum ActiveScale物件存储
- 交换机:Supermicro InfiniBand 和以太网络交换机
WEKA总裁Jonathan Martin表示:“具高性能和高度快闪数据容量的Supermicro PB级All-Flash存储服务器能与WEKA的AI原生数据平台软件完美互补搭配,并为现今的企业AI客户提供空前的速度、规模和简易性。”
Supermicro将在一场网络研讨会中介绍其优化存储架构的更多细节。若要参加该场于2024年2月1日举办的直播网络研讨会,或观看Supermicro和WEKA的网络研讨会回放。