在人工智能(AI)和机器学习(ML)加持下的新一代数据中心正在对复杂的计算能力、巨大的存储容量和无缝连接产生前所未有的需求。大型互联网数据中心是光互连技术和创新增长极快的市场,由于机器对机器通信的增加,70%的互联网流量几乎都发生在数据中心内部。
IDC预计到2025年全球的数据量将达到175ZB。为了支持我们对数据的不懈需求,超大规模数据中心正在转向更快、更平坦、更具可扩展性的网络架构,而不超过三层交换机的扁平架构就成为了主流选择。该架构降低了延迟,但增加了对更高带宽和长距离高效连接的需求。
长期以来,以太网高速接口被认为是互联网的数据连接骨干。随之而来的是,每一代以太网标准都将速度提高了一倍,以此满足日益增长的高速互连的需求,超大规模数据中心的发展甚至成为以太网标准演进路线图的重要影响因素。新一代的以太网标准可提供每通道224Gbps的数据速率,为支持800G和1.6T以太网奠定了基础。
超大规模数据中心需要224Gbps传输技术
随着数据中心处理的数据量持续增加,对更高带宽和更高效数据传输的需求变得势在必行。为了跟上不断加速的性能要求,人工智能数据中心必须扩展其系统结构,开发强大且高性能的连接基础设施,以极大限度地提高AI/ML的效用。800G技术为数据中心提供了一种前瞻性的解决方案,目前主要用于大型数据中心、云服务环境和需要高带宽的应用。
第一代800G以太网技术通过8个独立的通道来传输数据,每个通道的传输速率达到112Gbps,相比上一代的速度翻了一番。接下来的第二代以太网技术再次将传输速率实现翻倍,为高达1.6T的链路引入了每通道224Gbps传输技术。然而,要实现224Gbps需要的不仅仅是“带宽加倍”,相关的接口芯片、连接器等都需要性能改进或新设计才能以更高的速度工作。
在数据中心应用中,除了应用程序中数据爆炸带来的高带宽需求,目前服务器前面板密度也产生了高带宽的连接需求,只有在224Gbps PAM4架构上构建的下一代数据中心才能维持这种极其迅猛的扩展。
除了海量数据的传输和处理,功耗是影响数据中心健康运行的另一个重要因素。据估计,超过60%的数据中心功耗与以太网的连接有关。由224Gbps PAM4技术支撑的1.6T以太网的使用有望将连接功耗降低50%,延迟降低40%。
超大规模数据中心使用224G连接和1.6T以太网来支持AI/ML所需的高性能计算,其中涉及复杂的技术架构和连接组件。具体使用从机架外开始,这些先进的连接解决方案将数据中心的分解资源链接起来,并以OSFP、QSFP-DD、QSFP、夹层和背板连接器,以及近ASIC连接器到电缆系统的形式扩展到服务器、存储设备和机架。
在不断缩小的空间中提供高速和高性能的连接,这个过程不是简单地升级底层计算和连接能力以支持224Gbps速率的问题,而是如何更好地利用224G技术重新设计AI数据中心的问题,因此,需要整个生态系统的行业协作和共同开发才能达到新的水平,以确保组件、硬件、架构、连接、机械完整性和信号完整性之间的互操作性。
224Gbps高速互连系统的设计考虑
每一代高速串行通信技术几乎都会将信道数据速率推向新高,当112Gbps PAM4信道引入数据中心环境时,通过加倍互连带宽使支持的数据速率加倍。然而,从 112Gbps增加到224Gbps并不只是“让速度提高一倍”那么简单。采用224Gbps带来了重大设计挑战,尤其是如何在信号完整性与机械外形尺寸需求两个方面取得平衡,需要物理层架构的升级。
在数据中心中,224Gbps信道是通过专用芯片(ASIC)经过PCB和背板进行传输的,传输路径上装有用于网络和计算设备之间通信的连接器、无源和有源电缆以及光纤。为了保证数据传输系统能够按照设计要求正常运行,与之相关的连接器和电缆系统,甚至用于制造PCB和半导体的基本材料都需要重新进行评估和设计,设计人员必须平衡架构中每个组件的信号完整性要求与机械外形尺寸要求,而连接器和电缆则是影响224Gbps信道信号完整性的关键元件。
在服务器和存储设备中,224Gbps信道需要各种连接解决方案,包括近ASIC连接器到电缆系统、高性能夹层连接器、OSFP、QSFP-DD、QSFP和类似标准等(如图2)。
图2:224Gbps计算平台需要各种连接解决方案,包括OSFP、QSFP-DD、QSFP、夹层连接器(Mirro Mezz增强型)、背板连接器(Inception)和近ASIC连接器到电缆系统(CX2-DS)。(图源:Molex)
对于超大规模数据中心而言,铜互连依然很重要,比如OSFP、QSFP-DD和QSFP等接口就可以通过三种方式实现224Gbps信道的连接:
一是直连铜(DAC)电缆,该方式仅使用铜线,没有电子器件,功耗为零,延迟和插入损耗极低,能在3.0米的距离内提供超低的成本和功耗。
二是有源电缆(AEC),对于长达5.0米的连接,AEC支持多种电缆配置,同时提供低延迟,在性能和成本之间为数据中心高速互连方案提供了一个折中的选择。
三是有源光纤布线,这种方式支持跨数据中心的多个224Gbps通道的连接,以实现长距离数据传输。
综上,对于高速互连应用,铜互连并没有“死亡”——在需要覆盖的距离不到3.0米时,DAC可以完美地工作,非常适合机架内应用。
比如,英伟达公司的GB200 NVL72机架级系统包括72个Blackwell GPU和36个Grace CPU,其中的GPU就采用了由Amphenol提供的高速直连铜(DAC)电缆方案实现电连接。不过,当传输距离超过2.0米时,DAC因信号丢失严重将无法使用。此时,AEC为数据中心提供了一种弥补差距的方法,与光模块方案相比,内置的重定时器让AEC能够以更低的成本在7.0米的距离内保持高速数据输送和卓越的可维护性。
如何打造224Gbps整体解决方案?
在数据中心中,要实现高达224Gbp的数据传输率,需要采用具备多种芯片到芯片连接方案的全新系统架构。2023年5月份,Molex莫仕推出了一个芯片对芯片224Gbps PAM4产品组合,用以支持下一代数据中心实现高速互连。这些适用于数据中心224Gbps架构的连接器系列产品涵盖了系统架构的各个方面,而Inception、CX2 Dual Speed(CX2-DS)和Mirror Mezz增强型扣板连接器是新方案中的重要产品。
其中,Inception是Molex首款从电缆优先角度设计的无公母端区别的背板连接系统,由于无插头和插座的差异,因此它的接口两端的信号完整性和机械完整性是一样的。作为硬件通信架构的骨干,Inception可实现高效的通信和数据交换;近ASIC连接器CX2-DS专为机械坚固性而设计,具有配合后的螺钉接合功能,以确保在将配合力传递给螺钉的同时完全就位,具有可靠的机械擦拭和完全保护的“防拇指触碰”接口。
为了打造完整的光纤架构,近ASIC连接器CX2-DS可在芯片和周围的组件或外部连接之间实现高速低损耗连接;Mirror Mezz增强型扣板连接器是无公母端区别的中间层板对板连接器,它将Molex的夹层互连技术提升到能够支持224Gbps PAM4的水平。通过向系统添加更多的Mirror Mezz增强型连接器配合PCB板级组件上的所支持互连拓扑结构,系统可以支持更多的计算模块,从而实现计算能力的升级。以OCP开放加速卡基础设施(OAI)系统为例,至多可以安装多达8个GPU模组;在未来的高速互连架构中,当Mirror Mezz增强型连接器与Inception/CX2-DS结合使用时,像OAI这样的系统也可以使用Inception高速背板连接器和电缆在单独的机箱之间实现互连。
图3:用于光纤架构的Inception背板和CX2-DS(图源:Molex)
OSFP 1600、QSFP 800和QSFP-DD 1600连接器和电缆这些坚固的I/O连接器和电缆同样是专为224Gbps PAM4而设计的互连解决方案,它们具有卓越的机械耐用性和出色的屏蔽性能,可极大限度地减少串扰,拥有更好的信号完整性性能。OSFP 1600与OSFP MSA标准兼容,适用于224Gbps应用。不过,OSFP连接器不向后兼容QSFP-DD的接口形态,是一种替代QSFP-DD的接口形态,它可以支持更快的数据速率和更好的散热性能。
图4:坚固耐用的I/O连接器OSFP(图源:Molex)
总之,先进的连接解决方案包括高速板对板连接器、下一代电缆、背板连接器,以及近ASIC连接器到电缆系统解决方案,这些支持224Gbps PAM4的互连组件对新的数据中心设计至关重要,224Gbps技术和1.6T链路使重新构建数据中心成为可能。在实际应用中,我们可以将上述支持224 Gbps-PAM4系列的组件整合为一个高速互连方案并部署在超大规模数据中心。
本文小结
生成式人工智能、边缘计算和数字孪生建模等新技术正在重新定义数据中心的计算要求。数据中心互连不仅要应对带宽、延迟和安全性等诸多挑战,而且随着企业对数据处理速度和准确性的要求越来越高,对高带宽和低延迟的需求也在逐渐增长。通过实现GPU、加速器和其他组件之间的快速数据交换,高速板对板连接器大大提高了AI数据中心的效率。此外,连接器的高数据传输速率在AI训练和推理任务中尤其有益,在这些任务中,及时处理数据对AI算法的性能至关重要。
虽然400G以太网光收发器目前是大规模数据中心的主流选择,也许很多企业仍在运营中采用40G或100G技术,但数据中心互连技术的趋势显然正朝着800G发展,1.6T的应用也在路上。
随着数据密集型应用程序的增加,数据速率翻倍的趋势将继续下去。计算模块之间传输的数据速度和数量的增加亟需224Gbps互连解决方案的支持。而应用于数据中心的高速连接组件的发展将迎来新一轮创新,其重点将是进一步小型化、提高数据传输速率和提高能效。
该发布文章为独家原创文章,转载请注明来源。对于未经许可的复制和不符合要求的转载我们将保留依法追究法律责任的权利。