在炎热的天气里跳进凉爽水池的感受,足以让人理解液体冷却的高效性。这当然不是一个新概念。汽车散热器作为该行业液体冷却的早期应用实例之一,已有近 125 年的历史。数据中心采用液体冷却(以及其他降温方式)也并非新颖之举,因为服务器、高功率处理器以及大量电子设备所产生的热量如不加以控制,可能会引发严重问题。虽然目前数据中心的液体冷却主要针对特定的高发热系统,但随着新服务器配置中计算密集型和数据密集型工作负载的不断增加,温度持续攀升,液体控热方法正获得越来越多的关注,推动其得到更广泛的应用。
数据中心在物理设计上特别重视降低热量,因为对于电子系统而言,高温不仅会严重影响性能,还可能导致系统损坏。尽管数据中心的绝对环境温度上限设定为 82°F,但一些行业建议认为,理想温度应控制在 73° 至 75°F 之间。可以想象,这会带来高昂的空调费用,同时也对电网造成巨大负担。因此,确保服务器系统以及其他电子设备的运行温度尽可能控制良好,不仅对实现数据的稳定存储与处理至关重要,同时也是实现节能降本运营的关键。
除了采用主动式空气冷却(比如空调和风扇)以及优化结构设计(比如充分促进气流循环的架空地板)之外,由内而外降低电子系统的温度,尤其是服务器机架内的电子系统,同样发挥着举足轻重的作用。在高密度服务器电子器件中,界面导热材料 (TIM)、散热片和液体冷却系统是降低实际工作温度的主要手段。面对由人工智能、数据挖掘和分析技术推动产生的庞大数据和高速传输,以及持续升高的热负载,所有这些降温方法都在经历重大创新。
数据中心的液体冷却有多种形式,比如在 PCB/模块之间的冷却板或机箱上连接冷却管、利用全浸没冷却系统将整个机架浸入液体中。 其原理相对简单:水或电介质冷却液通过管道或其他结构循环流动并冷却金属界面,该界面是高性能计算芯片的集热位置。在浸没式冷却方式中,组件完全浸入液罐中,液罐内循环流动的是不会损坏组件的电介质冷却液,用以降低系统运行时产生的热量。虽然服务器主板/机架所用的冷却板以及浸没式冷却系统目前仅应用于数据中心的特定区域,但随着数据量和处理强度的持续上升,这种温度控制方法预计在 2022 至 2028 年期间将实现 20% 的复合年增长率 [3]。
数据中心运营商不仅要通过降低热量来优化设备性能,还必须确保打造一个更可持续、更节能的数据工厂。当功率密度不断提高时,空气冷却已难以满足需求。 液体冷却能够增强降温效率,它通过循环利用高效的冷却水或冷却液(减少浪费)实现节能效果, 显著降低能源消耗。那么,问题来了: 液体冷却的积极影响能否进一步扩大?
为了进一步提升液体冷却系统的散热性能,业内过去曾尝试在组件与金属液体冷却管/冷却板/冷却机箱之间使用界面导热材料。 这加快了本应是金属间接触散热的过程。 这一想法有其可取之处。 然而,在现有的界面导热材料中——无论是垫片、粘合剂、凝胶还是液态形式——凝胶和液体不适用于上述应用场景,垫片和粘合剂无法承受可插拔组件插入外壳时或印刷电路板插入分区式液冷板结构时经常产生的摩擦作用。材料会被推掉或刮落,基本失去作用。
最新的 TIM 材料创新展示出增强液体冷却效果的潜力。 经实际验证,有一种耐用的微热界面材料 (mTIM) 可显著降低收发器可插拔光学模块 (POM) 的热量。它以超薄涂层形式通过导热界面加速散热,其效果优于金属间的热传递。该解决方案目前已应用于数据中心的 OSFP 400 GbE POM,相较于金属间界面散热,明显降低了温度。考虑到一块线卡最多可包含 32 个 POM 模块,而每个模块的降温效果叠加起来,将带来更为切实的集体降温效应。尽管 mTIM 在管道和浸没液体冷却系统中的表现仍处于初步研究阶段,但其耐用涂层的特性表明,它有望大幅提升液体冷却结构的冷却效率。 该材料兼容多种金属,厚度仅为 25 µm (+/- 5 µm),而且经久耐用。
随着数据中心服务器机架的温度不断升高,即使是目前最有效的液体冷却系统也面临性能瓶颈。像 mTIM 这样的热控制创新材料,可能正是实现更可持续的高性能运营的关键所在。
- 文章
- 产品手册
- 案例研究
- 信息图
- 白皮书