• 正文
    • CXL 高速互联应运而生,提高内存利用效率
    • CXL 内存池化和共享
  • 相关推荐
申请入驻 产业图谱

CXL 高速互联:破解 AI 时代“内存墙”新途径,你知道多少!

02/07 11:08
1552
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

紧跟技术热点和行业方向,很多芯片设计大厂都在招聘高速互联,Link,片间互联等技术人才,这篇文章简单介绍一下CXL技术。

AI 大模型的快速发展推动“算力”和“存力”需求快速增长,与此同时,对“运力”也提出了更高的需求,系统需要更高的带宽、更快的传输。但内存的性能提升速度远低于处理器的性能提升速度,导致处理器无法充分发挥其计算能力。

“内存墙”问题由来已久,在 AI 时代表现的愈发明显,“算力”和“运力”之间的差距越来越大。Transformer 类的模型参数的数量呈现指数增长,每两年增加 410 倍,而 GPU 内存仅以每两年 2 倍的速度扩展。

大模型参数量增长速度远超硬件迭代速度

带宽增长与算力增长差距明显

CXL 高速互联应运而生,提高内存利用效率

CXL(Compute Express Link)技术是一种新型的高速互联技术,旨在提供更高的数据吞吐量和更低的延迟,同时实现内存共享、提高内存利用效率,为化解“内存墙”问题提出新的解决方案。

它最初由英特尔AMD 和其他公司联合推出,并得到了包括谷歌、微软等公司在内的大量支持。CXL 的目标主要是为了解决 CPU 和设备、设备和设备之间的内存鸿沟,解决内存分割造成的较大浪费、不便和性能下降。CXL 通过将计算和存储分离,形成内存池,从而能动态按需配置内存资源,提升效率。

CXL 内存池化和共享

CXL 提高内存利用效率,技术优势明显

CXL 通过将计算和存储分离,形成内存池,从而能动态按需配置内存资源,提升效率。CXL 技术具有优势:

1)CXL 延迟较低,通常为 10ns,而 PCIe 的延迟为 100ns。

2)CXL 支持内存一致性,一致性的缺乏限制了 PCIe 应用程序

3)CXL 地址空间可按定义缓存,PCIe 则不可以。

CXL 版本持续升级迭代,国际巨头纷纷加入 CXL 联盟

CXL 历经 5 个版本的升级发展。CXL1.0 于 2019 年 3 月发布,后历经 1.1、2.0、3.0 版本,2023 年 11 月,CXL 联盟发布了最新的 CXL3.1 版本。随着CXL 技术的不断演进,未来数据中心各个计算节点和内存节点的互联将更加快速、高效和灵活。

CXL 联盟由英特尔牵头成立,目前成员已经超过 255个,涵盖了主要的 CPU、内存、存储和网络设备制造商。国际巨头加入 CXL联盟,积极布局 CXL 技术,推出支持 CXL 技术的产品,助力 CXL 的发展。

CXL 市场空间广阔,DRAM 占据主要份额

CXL 高速互联目前处于市场应用的早期阶段,未来采用 CXL 协议服务器的占比持续提升。Yole 预测到 2028 年,CXL 市场总收入将超过 150 亿美元,DRAM 将占据 CXL 市场的主要份额,Yole 预计到 2028 年,DRAM 占到 CXL 市场规模的 79%。

三星和海力士相继推出了采用 CXL 内存控制器的 CXL 内存模组,三星推出其首款支持 CXL2.0 的 128GB DRAM,加速下一代存储器解决方案的商用化进程。

更多关于CXL的技术文档,可以私信我获取。

新的一年开始了,想看市场机会,及时联系我,我罗列了超过10家头部企业和行业独角兽企业招聘。都能内推或辅导推荐!!!

点赞
收藏
评论
分享
加入交流群
举报

相关推荐

登录即可解锁
  • 海量技术文章
  • 设计资源下载
  • 产业链客户资源
  • 写文章/发需求
立即登录