为了满足算力暴增的需求,数量众多的超大规模数据中心在加速落地。
在数据中心蓬勃发展的过程中,一些关键因素也不能不察,迫切需要解决,否则可能导致“算力危机”。
今天,和文档君一起了解一下,可能导致算力危机的2大因素:能源和散热。
1、算力的“燃料”
要想马儿跑得快,就得给马儿喂好草料。
算力系列的文章《算力101:从零开始了解算力》、《算力与计算机性能:解锁超能力的神秘力量!》、《数据中心大揭秘!》,相信各位粉丝也都了解到,庞大算力,是各种专用软件、硬件共同努力的结果。
而所有的一切都要强劲、稳定、持续的电力作为“燃料”,才能驱动庞大算力的运行。
这可不是一丁点的电力,据业界预测,2030年全国数据中心能耗总量将超过4000亿千瓦时。
全球数据中心的能耗已经超过了全球电力消费的2%,而且预计在未来几年内能耗还会继续增长。
飞速增长的算力、电力,带来了巨大的能源需求问题。
该如何解决呢?很多粉丝心里其实已有答案。
在“多”和“少”这2个方面,聪明的人们已经有解决方案了。
“多”,就是算力提升速度再快,都要想尽办法保障足够的电力。
一是增加电力的生产
建立更多的火电厂,用更多的煤、石油、天然气等不可再生资源来发电。
优点是传统的资源利用方式,方便快捷。缺点是消耗大,对环境的影响巨大。
二是增加电力的来源种类
包括水力发电、核能发电、风力发电、太阳能发电等。
优点是资源可再生,绿色环保。缺点是受限于外界环境,包括:地形地理位置、风力大小、天气阴晴等等。
三是增加电力的存储
在电力富裕的时候存起来,等电力不足的时候再拿出来用。
优点是可以保障电力的稳定。缺点是新型技术,还在摸索创新中。
“少”,就是降低算力对电力的需求量。
一是减少算力的提升速度
现有的算力,是否已经足够满足我们的需求?是否还需要继续提升算力?如果再提升一定数量的算力就够用的话,那增加的电力需求也就有限了吧?
二是减少数据中心的损耗
承担计算主力任务的硬件,在运行过程中会损耗大量的能量。其他存储、网络等硬件,综合的损耗也不少。
为了减少这些损耗,国家据此提出相应要求,全国范围内新建数据中心的电源利用效率(PUE)<1.2。
说明
PUE = 数据中心总能耗 / IT设备能耗
PUE越接近1,表示非IT设备耗能越少,数据中心能效水平越高。
三是减少单位算力的能耗
开发新型的计算技术,提高算力的能耗比,即同样大小的算力,对应的能耗减少。
相当于一份草料,以前只能供给一匹马的全力奔跑。通过培育新品种,一份草料,现在可以供给两匹新型马了。
四是减少算力的重复建设
算力是个好东西,很多企业、科研机构等都需要它。那有必要每个企业都建设单独的数据中心去产生算力吗?
如果集中在某些数据中心中产生算力,提供共用的算力池给大家使用,是否会达到这样的效果:算力的能力更大、算力的建设成本更低、算力的使用效率更高。
让多的多,让少的少,让马儿跑得快,草料还吃的少。
最终目标,还是希望通过各种技术和改进,让算力增加的多,电力还用的少。
2、算力的“冷却”
在产生算力的过程中,各种硬件都在全力以赴的处理各种数据。
那忙碌的场景,可以用“忙到冒烟”来形容。
实际上硬件运行过程中产生的高温,不仅会导致更多的能量损耗,更可能导致硬件的不稳定,甚至可能导致硬件的损坏。
所以,聪明的人们,想出了各种办法进行算力的“冷却”。
风冷
最常见的散热方式,我们的家用电脑也是采用这种方式。
通过空气的流动,将硬件产生的热量吸收和排出。
优点是成本低,便于安装和维护,而且通过设计合理的布局,提高空气流动的效率,确保散热的效果。
缺点是散热能力可能受到环境问题、空气湿度等因素的影响。
而且在大型的数据中心中,由于热密度更高,单纯采用风冷技术无法满足整体的散热要求。
空调
也是比较常见的散热方式,风冷方式是将常温的空气流动起来,空调冷却系统则是通过冷却空气,来控制数据中心的温度和湿度。
优点是可以满足数据中心对温度、湿度的严格要求,例如温度要求在20°~25°之间,湿度要求在40%~60%之间。
缺点是空调的运行也会消耗大量的能源,而且空调冷却系统的多个压缩机、冷凝器、蒸发器等设备,部署成本和维护成本都不低。
水冷
水的比热容较大,能够吸收大量的热量,而且吸收热量后的温度上升速度比较缓慢。
更重要的是,液体的对流换热系数,是空气的10倍~40倍。所以用水来散热,效率更高。
水冷系统是一整套的设备,水泵可以将自来水、井水或者专门的冷却水泵送到冷却管道中,冷却管道与数据中心的设备进行热交换,将设备产生的热量吸收从而降低设备的温度。吸收热量后的升温水会顺着管道到达热交换器,和热交换器并列在一起的冷却塔,就可以将水中的热量吸收出来,将热量散发到空气中。冷却后的水,继续进入到水泵,循环给设备降温。
优点是散热效率高,用了水冷以后,就可以减少对风扇、空调等辅助散热设备的依赖,降低能源消耗。
水冷系统的运行相对稳定,不受环境问题、空气湿度等因素的影响,可以进行精准的温度控制,确保数据中心的稳定工作环境。
缺点是需要部署专用的水泵、冷却塔、冷却管道等设备,占用了一定的空间。而且需要确保管道的密闭性,维护成本较高。
重要设备或者设备中的重要部件,进行有针对性的散热。
这里的液体,不一定是水,也可以是增加了特定添加剂的水基冷却液,改善水的性能,提高防腐防冻等能力。也可以是非水基的冷却液,例如:矿物油、氟化液等。
优点是可有针对性的降低特定设备的的温度,对其他部件的影响较小。
冷却液与发热元件直接接触,散热效果好,能够快速有效的带走热量。
缺点是液冷系统的设计水平、加工精度、安装工艺、控制复杂度、冷却液成本、维护难度等等,都有比较高的要求。
其中的两种方式如下:
冷板式液冷服务器
支持CPU液冷、CPU+内存条液冷、CPU+GPU液冷等,液冷散热占比超过
80%,助力数据中心PUE降至1.1。
浸没式服务器IceTank
单节点能够处理超过2000W的功率,可以确保温度的均匀性,防止热点的产生,从而延长了硬件的使用寿命。
此外,超高散热能力还减少了对传统散热方法如风扇和空调的依赖,降低了运营成本。
上面简单介绍的这些“冷却”技术,有各自使用的场景。
而在“算力”世界里面,液冷技术由于具有低能耗、高散热等特点,逐渐成为满足数据中心散热要求的重要选择。
好的,今天介绍的就这么多:
算力越大,需要的电力越多。电力越多,提供的算力越多。是增加电力?还是减少算力?两者之间的平衡,该如何把握,是一个难题。
风冷、空调、水冷、液冷,“冷却”的技术有很多,该如何选择?该如何继续演进,需要综合考虑,因地制宜。
各位聪明的粉丝,有什么更好的解决方法吧,可以留言区一起讨论哈~
要想了解更多关于算力的知识,还请持续关注中兴文档推出的算力系列化图文。文档君带你由浅入深,走进算力的世界。