申请咨询
随着 AI 和机器学习技术的不断成熟,以及我们对海量数据处理的需求日益增长,高性能计算 (HPC)、处理能力与数据存储方面的需求也在不断增加,
这给数据中心的容量带来了越来越大的压力。麦肯锡1 的一项报告指出,就功耗而言,美国数据中心的用电需求预计将从 2022 年的 17 吉瓦 (GW) 增长至 2030 年的 35 吉瓦。
困境在于,数据中心在满足不断增长的容量需求的同时,还必须履行其可持续发展和实现净零排放的义务。
尽管计算机技术人员持续探索新的方式来提高功率密度,在更小的空间中容纳更多的处理与存储单元,但从中期来看,这可能仍不足以应对这一挑战。2020 年《麻省理工科技评论》2 的一篇文章曾警示说,我们已无法再依赖摩尔定律持续提升每块硅片的计算能力,短期内也没有明确的替代技术,唯一的办法可能就是增加服务器机架的密度。
在这种背景下,降低现有数据中心基础设施对环境的影响成为关键目标。冷却系统是继服务器和 IT 设备之后数据中心内最大的能耗和空间占用因素,因此,在破解数据中心困境的过程中,冷却技术的创新发挥着至关重要的作用。
这篇博客探讨了浸没式冷却这样一项技术,权衡了其优势与挑战,并深入思考:在数据中心可持续发展浪潮的推动下,该技术是否能从边缘走向主流应用。
浸没冷却的原理是将设备浸入一种导热良好但导电较差的液体中,通过这种方式实现散热。
浸没冷却有两种基本方式:
在单相浸没冷却中,储罐连接到冷却分配装置 (CDU),该装置负责冷却并循环液体,且工作过程中冷却液始终保持液态。
双相浸没冷却则通过热交换器(如冷凝器盘管)使冷却液蒸发和冷凝来实现散热。
正如《数据中心动态》2019 年的一篇博客3 指出,浸没冷却并非新技术,已被用于冷却高压变压器超过百年,自 20 世纪 60 年代起开始应用于计算机系统。近年来,液体冷却特别是浸没冷却重新受到关注,因为它不仅在冷却效率上远超空气冷却(尤其是在更高服务器机架密度条件下),还能显著降低 IT 冷却系统的功耗和体积。
浸没冷却在现代环境下是一项新兴技术。
Open Compute Project 直到 2022 年才发布了浸没冷却的相关要求4,因此将其纳入主流应用仍需时日。
作为材料技术领域的专业公司,汉高特别关注浸没冷却中使用的界面导热材料。
与大多数散热方式一样,浸没冷却的效率取决于热量从热源传递到冷却剂的效果,而界面导热材料在此过程中起着关键作用。
浸没冷却自身也带来了一些挑战,例如,传统的界面导热脂可能会在冷却液中溶解。
汉高正积极投入研究,深入了解浸没冷却对界面导热材料的影响。
与其他冷却方法相比,浸没冷却具有显著优势,对于那些寻求降低成本、提升运营容量并充分减少环境影响的数据中心运营商而言,这是极具吸引力的
它不仅比空气冷却更节能,还能直接冷却整个浸没式服务器或其他 IT 组件。
与其他冷却方法相比,浸没冷却所需的运动零件和电气组件也更少。
这些特点共同造就了一系列降低成本和提升可持续性的优势:
- 在相同冷却效果下,功耗显著降低
- 持续且均匀地冷却整个装置,提高组件可靠性
- 降低整体拥有成本和运营费用
- 降低维护成本
- 噪音更小
2022 年《Science Direct》5 的一篇文章详细阐述了这些优势。浸没冷却目前仍属于小众技术,其普及过程还面临诸多重大障碍,例如:
- 所需基础设施的投资成本较高
- 旧数据中心改造难度大
- 可能需要重新设计数据中心布局
- 缺少冷却液,以及欠缺安装和维护设备所需的技能
- 当前双相冷却液具有有害性,不环保
虽然将浸没冷却推向主流地位仍面临诸多重大挑战,但目前尚无明显替代方案能够逐步降低数据中心的能源消耗。
浸没冷却已成为加密货币挖矿和“绿场”环保部署的关键赋能技术。除了整体功耗的考量外,还有一些特定因素加速了数据中心向浸没式液体冷却系统的转变:
更高的机架功率密度 - 生成式 AI、ML 和 HPC 工作负载推动了市场对更高数据计算性能的需求,进而提升了对机架功率密度的要求。随着功率密度的升高,空气冷却方法难以为继。液体冷却方法(主要是浸没冷却)可能成为唯一可行的解决方案。
边缘计算 - 通过将计算能力部署在更靠近消费端的位置,边缘计算将在越来越多地理分布广泛的端点上提供更高的处理能力和更快的速度。预计该市场将在 2023 至 2028 年间规模翻倍6。
浸没冷却可以显著减少数据中心的占地面积,打造更安静的数据中心,同时减少对环境的影响。所有这些都是边缘计算对小型本地数据中心的关键要求。
浸没冷却技术有望成为推动数据中心行业实现 2030 年净零排放目标的关键力量,同时有效提升用水效率并降低功耗。
我很想听听大家对浸没冷却的更多看法——欢迎通过领英与我联系,很乐意与各位交流。
- 文章
- 产品手册
- 案例研究
- 信息图
- 白皮书