为什么数据中心采用冷板式而不是浸入式液冷
在云计算、生成式人工智能和加密挖掘等技术的推动下,数据中心机架的功率密度不断提高,液体冷却成为最佳的热管理解决方案之一。即使有密闭,传统的风冷方法也难以满足密集服务器的冷却需求。由于高密度机架利用率的增加,IDTechEx 的最新研究报告预测,到 2023 年,冷板液冷的复合年增长率将达到 16%,其他液体冷却替代品也将强劲增长。
将液体冷却集成到数据中心有三种主要方法:(1)设计专门用于液体冷却的数据中心:这涉及使用浸入式冷却创建具有高计算能力的更小、更高效的数据中心。然而,由于涉及的高成本,IDTechEx 认为浸入式冷却将会增长,但在短期内,可能会以较小的规模实施,例如大公司的试点项目。(2)设计同时具有风冷和液冷基础设施的数据中心:这允许将来过渡到液体冷却,同时最初使用空气冷却。但是,对于预算有限的最终用户来说,从头开始设计具有冗余功能的数据中心可能并不总是首选。(3)将液体冷却集成到现有的风冷设施中:这是最常见的方法,预计在中短期内将成为首选解决方案。
它涉及将空气系统的一些容量转换为液体冷却系统。它的受欢迎程度有几个原因:成本效益:与其他两种选择相比,利用现有基础架构可降低复杂性和前期成本;对全液冷集成的需求有限:尽管数据中心密度不断增加,但 IDTechEx 认为,向全液体冷却的过渡将逐渐发生,从数据中心的少量机架开始,然后逐渐扩展到所有机架;绩效评估:与空气冷却相比,直接到芯片冷却仍处于早期阶段。因此,许多数据中心服务器供应商和最终用户更喜欢在大规模部署之前以较小的规模评估其性能。
在现有风冷数据中心改造需求的推动下,冷板冷却(也称为直接芯片冷却)是数据中心行业中占主导地位的液体冷却解决方案。传统上,冷板直接安装在热源(例如芯片组、CPU 等)的顶部,中间有一层热界面材料 (TIM) 以增强传热。在冷板内部,液体流过微观结构并流出到某种形式的热交换器。IDTechEx 认为,冷板的日益普及也将推动数据中心 TIM 的市场需求增长,尤其是用于处理器和芯片组的 TIM。英特尔在其新设计中的创新方法包括将冷板直接集成到封装中,消除 TIM2的使用,并降低体积热阻或阻抗。这种集成在热管理方面具有优势。然而,由于封装中冷板的微观嵌入,它也引入了更大的设计复杂性。
数据中心的冷板冷却为液体冷却提供了灵活且可部署的解决方案。独特的区别因素在于冷板的内部微观结构。与浸入式冷却不同,冷板冷却允许数据中心集成商和服务器供应商以相对较低的前期成本将液体冷却部分纳入其设施,并能够随着时间的推移逐渐过渡到全液冷数据中心。冷板液冷的年收入预计将在未来16年以10%的复合年增长率(CAGR)增长,冷板硬件的快速增长也推动了泵和冷却液分配单元(CDU)等组件市场的增长。
END