加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
    • 为什么是IPU?
    • IPU的更大野心:云服务提供商的新“弹药”
    • IPU更远的未来是ASIC芯片
    • SmartNIC/DPU/IPU——一个越来越拥挤的赛道
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

为什么IPU是英特尔加速布局云数据中心的关键一步?

2021/09/01
527
阅读需 14 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

英特尔最新推出了IPU(基础设施处理器),亲自向CPU“下手”,进行任务卸载。

数据中心长期的迭代方向来看,光网络的铺设、通信的密度、底层算力的生态设施建设等,都在逐渐升级的过程中。带宽不断提升、更大的数据量涌入,数据的处理越来越复杂,包括网络协议处理、存储压缩、数据加密等,给CPU和GPU带来更大挑战。这些任务该由谁来处理?这正是英特尔推出IPU、英伟达等推出DPU的大背景。

这些年来,英特尔凭借x86 CPU牢牢占据着数据中心的绝对地位。这一次,他亲自下场给CPU卸载任务,有很多深层的原因值得发掘。虽命名不同于DPU,但从大体的功能职责来看,似乎并无太大异同。英特尔为什么选择这个时候高调入局?有哪些野心?底气又是什么?

为什么是IPU?

我的第一个问题就是关于命名,英特尔的IPU侧重于基础设施角度,而非业界广泛提及的DPU(侧重于数据),除了差异化的战略考虑,还有哪些原因?

英特尔数据平台事业部首席技术官Guido Appenzeller告诉<与非网>,IPU针对的是基础设施处理功能,卸载CPU上用于基础设施管理和虚拟化的任务,而不是去做特定的数据类型处理或AI负载,这是其与众不同之处。英特尔与大型云服务提供商一直紧密合作,收到了很多的相关需求,因此英特尔和大型云服务提供商共同开发了这款IPU芯片,它是真正的客户驱动产品。在他看来,服务器众多处理器都是针对数据的,AI处理器、CPU等都是处理数据,DPU(Data Processing Unit;数据处理器)并不准确描述其功能定位。

英特尔研究院副总裁/中国研究院院长宋继强也表示,从IPU定位角度来讲,它主要卸载的任务包括网络虚拟化、存储虚拟化,以及对网络存储进行管理,要能够很好地根据业务应用的需求,虚拟化不同种类的任务,并且能够提供相应的接口或QS监测。同时还要针对加密、解密等信息安全保障功能做卸载。

“IPU作为可编程的网络设备,旨在使云和通信服务提供商减少在CPU方面的开销,并充分释放性能价值,都是和虚拟化基础设施有关的”, 宋继强指出,“这就不能用单一产品去满足所有需求,必须根据不同应用和需要卸载的不同方式,采用不同的方案”。

IPU的更大野心:云服务提供商的新“弹药”

越来越多的云数据中心,工作负载正在按照微服务集合的架构进行整合。虽然微服务导向的架构有很多好处,但也因为聚合的特点,造成了大量的通信开销,这种用于基础设施开销的CPU循环,并不会对云服务提供商的收入带来增长。Facebook的一篇论文显示,超大规模数据中心的微服务开销高达31-83%。
 

而通过基于IPU的架构,云服务提供商可以把基础设施任务从CPU转移到IPU,释放出的服务器CPU循环,则用来处理能够带来收益的任务,这样就可以把数据中心获得的收入最大化。

英特尔网络与边缘事业部副总裁、以太网产品部总经理Patricia Kummrow近日撰文指出:云数据中心就像酒店,而不是家。类似于酒店划分住客和员工活动的不同区域,包含IPU的数据中心架构也对租户和云服务提供商的工作负载进行区隔。通过把IPU引入数据中心来实施基础设施功能,云服务提供商的基础设施工作负载将在IPU上运行,这就解除了服务器CPU的负担,使其用于运行更多租户的应用。

也正是如此,基于IPU的数据中心架构具备以下优势:

  • 可以严格分离基础设施功能和租户的工作负载,租户可以全面掌控服务器CPU,并获得其全部的性能。
  • 通过把基础设施任务转移到IPU,云服务提供商可以把服务器CPU全部租赁给客户。IPU专门处理基础设施任务而不是通用任务,它可以应用硬件加速并更精细地优化计算,从而大幅提高性能和能效。
  • 在传统的企业数据中心架构中,每台服务器拥有自己的一套磁盘驱动器和固态盘,而IPU能够让云数据中心实现全面的无磁盘服务器架构。
     

这里要说明的是,如果采用全面的无磁盘模式,那么意味着所有存储都由中央存储服务提供。当客户在该服务器上启动一个工作负载时,云服务提供商就可以在存储服务上创造一个虚拟卷。通过管理网络,云服务提供商告诉IPU根据这个虚拟卷创建一个新的NVMe固态盘。在PCIe总线看来,这个虚拟NVMe固态盘就像是一个常规固态盘。而且,存储服务器和服务器上的工作负载之间的实际存储流量是在高速路径上进行的,这意味着不会涉及IPU或CPU上的任何内核,时延低,拥有高吞吐量和更高的灵活性。 

IPU更远的未来是ASIC芯片

英特尔最新推出的IPU方案基于两种架构类型:Mount Evans是专用ASIC架构,Oak Springs Canyon(OSC)基于FPGA和Xeon D。

Mount Evans是英特尔第一款 ASIC IPU,与大型云服务提供商联合设计开发。更值得一提的是,其CPU核心非常罕见地采用了Arm针对基础设施推出的Neoverse N1内核。

对此,Guido Appenzeller的评价是“这是一种是相当务实的做法,英特尔总是评估能带来性能、集成和功耗的最佳组合,在这种情况下,选择Neoverse N1最适合。”

IPU涉及加速器以及其它很多技术,需要进行快速数据包处理。Mount Evans包含两个部分:网络子系统和计算复合体。采用N1的16个高频率内核附带由三个LPDDR4控制器支持的大型系统级缓存,这个计算复合体与网络子系统密切结合,使得网络子系统加速器能够把系统级缓存用作最后一级缓存,以及提供两者之间高带宽、低时延连接,并能够灵活地整合硬件和软件数据包处理。

据介绍,Mount Evans IPU支持大量使用场景,例如vSwitch卸载、防火墙和虚拟路由等。通过扩展英特尔傲腾NVMe控制器而开发的另外一项技术,让Mt. Evans能够模拟NVMe设备,在FPGA IPU上运行的英特尔基础设施操作系统也将能够在Mount Evans上运行。

Oak Springs Canyon(OSC)基于Agilex FPGA,Agilex在性能、功耗、工作负载效率等方面都有一定优势。OSC与基于至强CPU的服务器协同工作,提供卸载2x100G 工作负载所需的基础设施加速,能够满足新兴云服务提供商对于部署100GB工作负载的需求。

这种混合 IPU 架构可以用硬件的速度进行网络管理,更高的软件灵活性可以使用户轻松实施控制面功能。使用 FPGA 板载资源的基于硬件的数据路径,和基于软件的控制平面与 IPU 的板载处理器上的基础设施 OS 堆栈一起运行,这种可编程性使IPU更灵活、性能更强。

“在美国和中国,六大云服务提供商目前使用基于FPGA的IPU,但我们看到,他们正在缓慢地转向专用ASIC IPU”,Guido Appenzeller进一步解释,“FPGA带来更大的灵活性,如果你希望实施一个特别的算法,就用FPGA,这对于很多云的服务来说很重要,目前排名前八的云全都使用不同的专有存储协议,那么选择FPGA是合理的,因为专用芯片不支持这种做法。 ”

而FPGA的一个劣势是,编程门槛较高,客户需要一个强大的团队,且吞吐量、功耗在一定程度上也会受到限制。随着带宽变高,未来的趋势是使用更专用的ASIC IPU。 

SmartNIC/DPU/IPU——一个越来越拥挤的赛道

从业界当前发展DPU/IPU的思路来看,它作为一个可编程处理器,运行的都是非应用型负载,从而可以让服务器CPU资源更好地服务应用负载。如果再往前追溯,承担此功能的还有SmartNIC,包括英特尔,也推出过Smart NIC智能网卡架构。

IPU与SmartNIC的本质差别是什么?Guido Appenzeller表示,主要区别在于IPU 具有本地控制平面,本质上IPU是可以控制CPU的,当CPU想要在网络上发送一个数据包时,IPU 可确保此数据包位于特定的虚拟覆盖网络上,由IPU控制PCI总线,可以把虚拟设备展示给 CPU。基本上是由 IPU 控制服务器,它是管理服务器的一部分,这也是信任的根源。而SmartNIC没有CPU,它所做的就是卸载,更多地用于通信服务场景,由CPU 处于控制之中,SmartNIC是CPU控制系统。英特尔希望通过基于ASIC和基于FPGA的IPU方案,再结合SmartNIC,用这几种综合方案满足不同基础设施服务商的需求。

在英特尔看来,超大规模云服务提供商正在分阶段实现IPU的价值:

  • 第一阶段:加速网络——把虚拟交换机和防火墙等常见网络任务从服务器CPU转移到IPU。把流量查找和封装/解封等用户面功能(UPF)从CPU转移到IPU,从而释放CPU循环。
  • 第二阶段:加速存储——把存储堆栈从服务器CPU转移到IPU,提高了存储吞吐量,并降低了存储的复杂性、开销和管理负担。
  • 第三阶段:加速安全——转移加密/解密、压缩和其它消耗服务器CPU循环的安全功能。(这些安全功能经常与第二阶段转移的存储功能搭配)。此外,IPU可以开启主机系统的启动和配置,而通过隔离安全功能和提供与CPU分离的信任根,进一步加强安全。
  • 第四阶段:基础设施处理——或许是最精妙的用途,把虚拟机管理程序服务管理功能从CPU转移到IPU。

加速网络、存储、安全再到基础设施处理,这个方向不只是业界头部厂商在关注,也成为一些创业公司扎堆的热门领域。

“这显然是一个大市场。长远来看,几乎每个云端服务器都会有类似 IPU 的产品”, Guido Appenzeller表示,“云服务提供商认为IPU对他们来说是很好的投资。之前,如果是一个包含32个核心的CPU,他们需要把某些核心用于基础设施处理,并不能把所有核心租给最终用户。但是在采用IPU的情况下,用户会得到额外的容量。基本上让一个系统有更高密度的客户工作负载,这在收益水平上对云服务提供商极具吸引力。”

在可以预见的未来,如果IPU确实分阶段达到应用效果,它将使云服务提供商出租CPU变得更容易,这也意味着人们会消费更多技术,可能会进一步拉动CPU和GPU的使用需求,这何尝不是几条产品线的双赢?IPU也将可能成为英特尔未来数据中心的战略元件,成为其数据中心/云计算战略的重要一步,进一步提高性能、降低成本,提供更好的云数据中心架构能力。

相关推荐

电子产业图谱

与非网资深行业分析师。主要关注人工智能、智能消费电子等领域。电子科技领域专业媒体十余载,善于纵深洞悉行业趋势。欢迎交流~