一种适用于数据中心液冷系统的新型兼容性流体连接器

【字体: 时间:2026年03月04日 来源:Building and Environment 7.6

编辑推荐:

  液冷技术因高热密度需求在数据中心应用中面临流体连接器兼容性差、成本高、效率低的问题。本文提出新型兼容流体连接器(CFC),采用轴向浮动机制(±2.5mm)和优化插头插座结构,实现与主流UQD/UQDB连接器的跨品牌兼容。实验表明CFC在0/6bar压力下插入力为56.8-134.2N,压降19.5-24.0kPa,泄漏率<5.0×10?2mL,满足数据中心高可靠需求,推动液冷技术标准化和节能应用。

  
肖汉松|吴宏杰|罗海亮|田泽奇|刘洪|李茵|侯家琦|陈莉|崔海东|万荣珍
中国移动集团设计研究院有限公司,中国北京 100080

摘要

由于缺乏多功能流体连接器,液态冷却技术在高密度数据中心中的快速应用面临重大挑战,这导致了兼容性风险、成本增加和运营效率低下。本研究介绍了一种新型的兼容流体连接器(CFC),旨在提高液态冷却系统中的跨品牌兼容性。CFC具有轴向浮动机制和优化的插头-插座结构,能够与UQD(通用快速断开)/UQDB(通用快速断开盲配)连接器灵活匹配。尽管与单一品牌连接器相比,CFC在插入力和压力降方面存在轻微的折中——但对于工程应用来说是可接受的——但在实验验证中实现了普遍兼容性。当与多个品牌的连接器连接时,CFC在关键参数上表现出可靠的性能:平均插入力为56.8–74.4 N(0 bar)和113.4–134.2 N(6 bar),额定压力降为19.5/24.0 kPa(正向/反向),流量系数为0.99 m3/h,平均泄漏量<5.0 × 10?2 mL,氦气泄漏率<1.4 × 10?? Pa·m3/s。这些结果验证了CFC的通用适应性,支持其在液态冷却数据中心中的灵活和可扩展部署,并促进了节能液态冷却技术的应用。

引言

全球计算能力正在由于人工智能(AI)、云计算和大数据分析的进步而呈指数级增长。根据互联网数据中心(IDC)的数据,2024年全球数据产量达到了159.2 ZB,并预计到2028年将达到393.8 ZB[12]。来自中国信息与通信技术研究院的统计数据显示,2023年全球计算能力达到了910 EFlops(FP32),同比增长了40%[3]
作为基本的数字基础设施,数据中心正在迅速扩张,同时处理日益密集的计算负载。随着晶体管数量的增加和晶体管尺寸的缩小[4],芯片的热流密度也在增加[4]。因此,中央处理单元(CPU)和图形处理单元(GPU)的性能和热设计功率(TDP)在过去十年中呈指数级增长[56]。到2030年,芯片的TDP可能超过1500 W[7]。为了在有限的物理空间内最大化计算资源密度,服务器机架中的功率密度和冷却需求持续上升,预计单个GPU机架的功率将达到60 kW甚至更高。这一趋势给冷却系统带来了重大的冷却挑战。
同时,全球数字化转型朝着提高计算性能、设备小型化和信息技术(IT)的能源效率方向发展,促使各国政府实施支持数字基础设施扩展的战略政策[8910]。统计数据显示,2021年全球数据中心市场规模超过了679亿美元,中国市场的规模超过了200亿美元,使用了超过520万个机架[11]。这一巨大的行业规模加剧了对能源消耗的关注,因为数据中心目前约占全球电力使用的3.5%[12]。在日益严重的能源安全和气候问题的背景下,各国正在实施更严格的法规以促进可持续的数据中心发展。主要的举措包括欧盟的“欧洲绿色协议”[13]、中国的“东数西算”项目[14]以及类似的全球政策,现在要求功率使用效率(PUE)目标低于1.2。
通常,传统的风冷数据中心无法满足高性能芯片的散热要求[15]。面对高热流和节能的双重挑战,液态冷却技术由于其卓越的能源效率(冷却能耗降低30-50%)和高密度冷却能力而显示出越来越大的应用潜力。因此,数据中心冷却解决方案正在逐渐从基于空气的系统转向基于液体的系统。目前,液态冷却数据中心在中国市场的渗透率约为20%,而全球预测表明到2028年液态冷却将占据数据中心冷却市场的33%[16]
目前,液态冷却技术主要由冷板技术[1718]、喷雾技术[1920]和浸没技术[2122]主导。其中,冷板液态冷却(CPLC)由于技术成熟度和较低的改造成本而占据了更大的市场份额。CPLC技术通过冷却剂在冷板内部通道中的流动实现非接触式芯片冷却。随着CLPC技术的普及和应用,市场上同时存在两种类型的液态冷却服务器:原生液态冷却类型和改造型液态冷却类型。一些云服务制造商已经掌握了部署集群化原生液态冷却服务器的技术,这些服务器的设计中冷板和管道系统与服务器结构深度集成。对于现有的风冷数据中心,可以通过将风冷机架改造为模块化液态冷却设备来实现渐进式升级。
在CPLC系统中,流体连接器是连接服务器和液体循环系统的核心组件。流体连接器在兼容性、泄漏、压力和抗腐蚀性方面的性能在系统安装和芯片维护场景中至关重要。流体连接器的可靠性已成为液态冷却系统大规模部署的关键因素。
与已经实现全球统一标准的电气接口不同,流体连接器在设计上存在差异,没有采用统一的标准规范。不同制造商在关键设计参数(包括接口尺寸、密封机制和锁定协议)上存在显著差异,导致系统不兼容,阻碍了行业的进步。例如,一项关于超级计算中心的案例研究显示,其液态冷却集群使用了多种接口协议,从而导致跨平台互操作性差。这种情况增加了库存成本并延长了故障诊断周期,这直接归因于缺乏兼容的流体连接器以及广泛适用的标准。因此,迫切需要开发一种高度多功能和兼容的流体连接器产品,以实现CPLC系统的平稳和安全连接。这有助于促进流体连接器的解耦式发展,并通过开源协议开放液态冷却产业链,以完善产业生态系统。
在这项研究中,提出了一种具有优化插头和插座设计的高度兼容流体连接器结构。此外,还对这种新型流体连接器进行了实验测试,以检验其性能指标并验证其兼容性。本文的其余部分组织如下:第2节概述了流体连接器的技术现状。第3节介绍了新型流体连接器的原理和结构。第4节调查并实验测试了流体连接器的技术要求。最后一节提出了结论和展望。

节选

数据中心中解耦需求的新兴趋势

数据中心的冷板液态冷却解决方案通常有两种不同的交付类型:机架耦合交付和机架解耦交付。在机架耦合交付中,制造商将IT设备(服务器、交换机等)与液态冷却机架预集成为整体产品,实现整个机架的快速部署。这种模式展示了机架基础设施和IT组件之间的紧密集成,形成了特定于供应商的生态系统依赖性。相反,

兼容流体连接器技术

OCP标准建立了统一的关键参数,以标准化流体连接器的规格并促进开源技术的发展。此外,为机柜解耦交付场景开发多品牌兼容的流体连接器是另一种可行的技术途径。本研究提出了兼容流体连接器(CFC)的概念,其示意图如图2(d)所示。CFC采用了更长的Dco、更大的Tolax以及插头外部的倾斜角度(150°)

CFC的性能测试与分析

根据当前流体连接器的标准,研究了CFC的技术要求。此外,还对CFC的关键性能参数进行了实验测试。

结论与局限性

本研究通过提出一种新型的兼容流体连接器(CFC)并通过全面的实验验证其性能,解决了阻碍液态冷却数据中心大规模部署的关键兼容性问题。研究得出的主要结论如下:
  • (a)
    CFC的集成设计,包括轴向浮动机制(±2.5 mm轴向公差)和优化的插头-插座结构,实现了与主流UQD/UQDB的跨品牌兼容性

CRediT作者贡献声明

肖汉松:撰写——原始草稿、方法论、正式分析、数据整理、概念化。吴宏杰:撰写——审阅与编辑、监督、方法论、概念化。罗海亮:项目管理、概念化。田泽奇:撰写——审阅与编辑、验证、数据整理。刘洪:监督、项目管理。李茵:撰写——审阅与编辑。侯家琦:撰写——审阅与编辑、数据整理。陈莉:监督、概念化。崔海东:
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号