智算中心冷板式液冷云舱
技术白皮书
前 言
随着全球算力需求激增,传统风冷散热已逼近物理极限,液冷技术在数据中心领
域近年来保持高速增长。市场分析显示,2025 至 2030 年间,全球液冷数据中心市场的
年复合增长率(CAGR)预计为 %,到 2030 年市场规模将达 240 亿美元,反映出
液冷在提升能效、降低能耗方面的显著优势及其渗透率的加速提升。
这一增长主要由数据中心对高效散热解决方案的需求驱动:一方面,人工智能服
务器和高密度计算部署(如 AI 大模型应用)导致功率密度骤增,形成液冷的刚性需
求;另一方面,绿色节能政策成为关键推动力。从行业应用来看,电信运营商和互联网
厂商是推动液冷技术应用的重要力量:互联网领域因 AI 部署推动液冷需求,电信运营商
则基于《电信运营商液冷技术白皮书》的要求积极推广。同时,国家“碳达峰碳中和”战略下,
PUE 标准趋严(如“东数西算”工程强制要求新建数据中心 PUE<),液冷技术能将 PUE
降至 以下,符合监管要求并获政策鼓励。
未来,随着 AI 技术的不断进步和发展,算力芯片功率的持续上升,液冷技术在高
功率服务器中的应用将发挥更显著的散热能力和能耗优势,从而成为数据中心散热的主
流选择。这一趋势推动全球和中国的液冷市场保持高速增长,尤其在冷板式液冷技术的
应用上,市场规模有望大幅扩大。同时,液冷技术路线随不同的应用场景逐步完善,推
动着液冷技术在更多领域应用,建立并完善数据中心液冷生态系统,驱动液冷技术创新
融合,最终共筑高效、低碳的绿色算力底座。
目录
一、 概述 ..........................................................................................................6
二、 术语和定义 ..............................................................................................6
三、 冷板式液冷系统介绍 ..............................................................................7
1. 冷板式液冷系统 ...........................................................................................................7
2. 冷板式液冷系统特点 ...................................................................................................8
3. 冷板式液冷系统面临的挑战 .......................................................................................9
31 冷却液老化与管道腐蚀 ........................................................................................9
泄漏风险 ..............................................................................................................10
33 建设周期长 ..........................................................................................................10
34 运维要求高 ..........................................................................................................10
四、 液冷云舱系统解决方案 ........................................................................10
1. 液冷云舱建设方案的必要性 .....................................................................................10
2. 液冷云舱建设方案的优势 ..........................................................................................11
3. 系统架构及解决方案 .................................................................................................11
31 基本技术条件 ......................................................................................................12
32 冷量分配单元CDU .............................................................................................13
33 解耦型液冷机柜 ..................................................................................................14
34 二次侧管路 ..........................................................................................................18
35 水氟双冷源空调 ..................................................................................................18
4. AI 数字化管理平台 .....................................................................................................20
5. 经济效益分析 .............................................................................................................20
五、 冷板式液冷系统工程设计要点 ............................................................21
1. 一般规定 .....................................................................................................................21
2. 负荷计算 .....................................................................................................................21
3. 设计要求 .....................................................................................................................21
六、 液冷新技术探索 ........................................................................................22
1. 相变冷板冷却技术 .....................................................................................................22
2. 环路热管两相散热技术 .............................................................................................23
3. 芯片级液冷技术 .........................................................................................................23
七、 结语 ........................................................................................................24
一、 概述
随着人工智能对算力需求的高速增长,大模型的快速迭代加速了更先进的算力芯
片模组、更高带宽的大容量显存和内存、更大规模的高速互联网络的部署,数据中心呈
现更高的单体算力性能、更高的算力部署密度。作为算力承载的芯片模组,单芯片功
率已突破 1000W,单机柜部署功率密度突破 120kW。传统的风冷技术已经无法支持如
此高功耗的芯片,而液冷技术采用高比热容的液体取代空气作为冷却介质,其比热容约
是空气的 4 倍,热传导能力约是空气的 25 倍,散热效率远高于风冷可有效解决高功耗
芯片的散热问题。
冷板式液冷是将液冷散热冷板紧贴在服务器的发热器件,通过冷板式换热器内的
低温流体带走服务器中的芯片散热量。作为一种更高效的散热方式,在解决高功率芯
片散热上有着得天独厚的优势,同时可满足数据中心的 PUE 降低到 以下的要求,
成为智算中心的必然选择。
围绕散热能力、能效和数据中心场景适应性,冷板式液冷在架构上存在多种部署形
态。一方面,随着单机柜功率密度的增加,为缓解风冷部分散热,逐渐提高液冷散热的
占比,出现了风液混合散热解决方案。另一方面,随着单芯片功率密度的提升, 对液冷
部件的散热性能提出了更高的要求,冷板微通道强化散热、液态金属等高性能导热材
料以及大通径的盲插快速互联技术等,为智算液冷解决方案提供更优异的散热条件。
二、 术语和定义
下列术语和定义适用于本文件。
1) 冷板式液冷系统 cold plate liquid cooling system
由二次侧冷却系统、一次侧冷却系统、监控系统等组成。通过冷板将元器件的
热量间接传递给封闭在循环管道中的冷却工质,通过一个或者多个冷却回路热交换
传递,最终将设备热量排至室外的系统。
2) 分集液器 manifold
包含多路分支或接口,用于连接冷量分配单元与冷板的管道系统,为机柜内液
冷冷板提供冷却工质分配及供回输送的装置。
3) 二次侧管路 secondary side pipeline
二次侧管路用于连接冷量分配单元 CDU 和液冷机柜,包含供液环管、回液环管
及配套组件,分别形成闭合回路,实现连接二次侧设备和冷却工质的均匀分配。
4) 冷量分配单元 CDU coolant distribution unit
为冷却液提供循环动力,通过换热器将其热量传递至一次侧系统冷源,实现冷
却介质的降温,服务于多台机柜的冷量分配单元。
5) 水氟双冷源列间空调 Dual Cooling Row
一种结合水冷与压缩机制冷双冷源系统的列间空调设备,通过两套冷源系统
协同工作灵活运行,最大化利用自然冷源,实现高效节能。
6) 解耦型液冷机柜 Decoupling liquid cabinet
用于放置计算节点及交换节点,并提供节点运行所需的供电、冷却等环境条件
的柜体。由机柜主体、分集液器、供电系统等组成,可按需配置盲插或快插型的供
电和供冷单元。
7) 一次侧冷却系统 primary side cooling system
一次侧冷却系统是冷量分配单元(CDU)室外循环系统,其与外界环境之间
进行热交换的循环系统。与外部冷却塔等外部散热设备相连,冷却工质在管路中
循环将二次侧冷却系统内的热量传递至室外或余热回收装置的冷却系统。对于冷
板式液冷设备,主要包含管道,冷却工质过滤系统,阀门、传感器等。
8) 二次侧冷却系统 secondary side cooling system
二次侧冷却系统是机柜与冷量分配单元之间进行热交换的循环系统。与服务器
相连,冷却工质在管路内循环带出发热元件产生的热量,与一次侧冷却系统进行热
交换的冷却系统。对于冷板式液冷设备,主要包含管道,冷却工质循环泵, 换热器,
冷却工质过滤系统,阀门、传感器等。
三、 冷板式液冷系统介绍
1. 冷板式液冷系统
液冷技术按照是否与发热的器件产生直接接触分为接触式和非接触式两种类型
。接触式液冷中冷却液与发热器件可直接接触,具体实现方案主要包括浸没式液
冷和喷淋式液冷,非接触式液冷技术的典型方案是冷板式液冷,技术路线对比见表1。
上述三种液冷技术方案中,冷板式液冷技术是应用最早、普及率最高的液冷制冷方式,
其可实施性和市场的成熟度也相对较高。
表 1 数据中心液冷技术路线
数据中心液冷技术路线对比
特征 冷板式 浸没式 喷淋式
接触方式 间接接触型 直接接触型 直接接触型
改造成本 较低 较高 中等
可维护性 优秀 较差 中等
空间利用率 较高 中等 较差
冷却效果 较好 优秀 优秀
兼容性 未与主板和芯片模块进行直
接的接触,材料兼容性较强
直接接触,材料兼容较
差
直接接触,材料兼容较
差
安装便捷程度 不改变服务器主板原有的形
态,保留现有服务器主板,安
装便捷
改变服务器主板原有
结构,服务器易残留冷
却液
改变服务器主板原有
结构,服务器易残留冷
却液
液冷散热占比 70-80%液体带出机房;
20-30%需要空调制冷;
100%液体带出机
房
100%液体带出机
房
PUE 约 约 约
冷板式液冷主要通过冷板(铜、铝等高导热金属构成的封闭腔体)将元器件的
热量间接传递给封闭在循环管道中的冷却液体,然后利用冷却液体将热量带走,其通过
工作流体的传递特点将中间热量传输到后端进行冷却。
2. 冷板式液冷系统特点
冷板式液冷系统包括二次侧冷却系统、一次侧冷却系统,如图 1 所示。适用于高
密算力规模、智算形态和高功耗设备等场景,冷板式液冷系统具有高密度散热、高效能、
高可靠性和强适用性等特点。
图 1 冷板式液冷系统示意图
(1) 高密散热、高效能:采用冷板式液冷系统可以实现机架功率密度的提高,有
效提升单机架的计算能力,冷板式液冷系统相对风冷在能效方面具备高效能的特点。
同时,通过进一步对液体、管理和设备冗余进行更为合理的设计和应用,液冷也将具
有比风冷更高的散热可靠性,有效提高数据中心的能源利用率。
(2) 高可靠性:冷板式液冷技术在冷却液管路中流动时,并未与主板和芯片模块
进行直接的接触,材料兼容性较强,提高系统的运行安全性。此外,液体冷却芯片温
度更低,可延长芯片寿命 30%以上,降低因过热导致的硬件故障率。
(3) 强适用性:冷板式液冷技术不改变服务器主板原有的形态,而是对现有服务
器主板进行适配性改装来实现液冷散热。这种方式不仅拆卸简单、安装方便,而且在
技术、产业以及规模化生产上具有更好的适用性。
3. 冷板式液冷系统面临的挑战
冷却液老化与管道腐蚀
随着时间的推移,冷却液可能会因为与系统中的材料发生化学反应、吸收空气
中的杂质或受到微生物的污染而逐渐老化或变质。这不仅会降低冷却效果,还可能
对系统中的管道、泵和其他部件造成腐蚀或堵塞,从而影响系统的稳定性。同时,
冷却液的选择也需要考虑其化学稳定性和对设备的腐蚀性。
系统中的冷却液体在循环过程中可能会携带微小的颗粒或杂质,这些物质在管
道或热交换器等部件中逐渐沉积,形成堵塞降低系统的冷却效率,甚至导致部件过
热或损坏。
泄漏风险
液冷系统中的管道、接头和密封件等部件在长期使用过程中可能会因为材料
老化、振动或安装不当等原因出现泄漏。泄漏不仅会导致冷却液流失,还可能引
发电气故障或设备损坏,这些问题一旦处理不当,不仅可能对设备造成损害,还
可能引发安全事故。
建设周期长
数据中心在建设冷板式液冷时涉及大量设备和工程管路,由于液冷设备生产加工
工艺较为复杂,且二次侧冷却系统中液冷机柜的分液器和二次侧管路的洁净度要求较高,
液冷系统的建设周期相比风冷系统要长。
液冷技术的初期成本相对较高,包括设备采购、安装、调试以及后期维护等费用。主
要源于其复杂的系统设计、高端的制造材料以及精细的安装和维护要求。此外,液冷
系统的运行和维护也需要专业的技术人员进行操作,这进一步增加了其运营成本。随
着液冷技术的普及和应用,相关的生产技术和支持服务也将更加成熟和完善,这将有助
于缩短建设周期及降低成本。
运维要求高
液冷技术相较传统的风冷技术在运维方面存在一些挑战和难度。首先,液冷系统
涉及的接口更多,这增加了故障点和潜在风险,需要运维人员具备更高的专业知识和技
能,能够及时发现并处理这些问题。其次,液冷技术的运维要求更为精细和严格。由于
液冷系统使用液体作为冷却介质,因此需要定期监测冷却液的质量、浓度和 pH 值等
指标,以确保其化学稳定性和散热性能。此外,还需要定期检查冷却管道和设备的密封
性、压力和流量等参数,以确保系统的正常运行。
四、 液冷云舱系统解决方案
1. 液冷云舱建设方案的必要性
随着传统行业数字化转型加速及智算等新兴行业应用需求驱动,智算需求增长趋
势明显,功率密度持续上升,制冷系统由单一制冷方案演变为多元化制冷方案,液冷技
术需求旺盛。算力需求高速发展为基础设施、建设方案带来的多方面的不确定性变化,
因此需要更为高效节能、灵活快速、低成本的基础设施建设方案以应对市场变化的不确
定性,加快完善数据中心领域的建设布局。
智算中心对基础设施的需求和商业模式有别于现有数据中心建设模式,需要结合
业界前沿,打造出适应高性能 IT 设备的发展趋势的技术与建设方案。提高市场竞争
性,降低智算中心造价,提高智算及云业务利润,实现智算中心的模块化、标准化建
设,以适应客户项目灵活部署。
针对需求,基于冷板式液冷系统自主开发出液冷云舱产品,能够弹性适配新建及改
扩建等不同类型的场景,实现预制化、模块化、灵活部署和快速交付。
2. 液冷云舱建设方案的优势
液冷云舱的建设方案采用兼容列间空调和液冷 CDU 的多元化方案,以实现制冷
量的按需匹配,达到节能降耗的需求。通过风冷、液冷两类管道预留,实现制冷模式的
灵活适配,风液混合部署,提高功率兼容性和冷量利用效率,适配高功率密度设备部署
需求。利用预制化和模块化技术,达到液冷产品的标准化和集成化,以便快速交付业务。
通过集约化供冷和供冷资源的池化,实现不同设备和环境的混插混用,以及跨楼层、跨
机房的冷量柔性化动态调节。
(1) 灵活性强:液冷云舱模块化架构可预集成液冷机柜、智能配电、冷却单元
等核心组件,支持按需扩容,单舱体可独立运行或多舱级联,实现柔性扩展能力。
(2) 高效散热能力:液冷云舱配置独立的 CDU 和列间空调,结合“芯片-机柜-
机房”三级液冷循环,动态匹配不同负载场景,减少无效能耗,兼容智算和常规通算服
务器,弹性适配不同算力场景。
(3) 高可靠性:将动环、IT 网管以及整个机房资源纳入数字化管理平台,支持
未来 AI 智慧化系统接入,实时分析负载与温度场,动态调节泵速、流量及冷却路径; 配
备漏液检测、压力传感与冗余泵组,毫秒级隔离故障模块,提升系统故障自愈能力, 实现
智慧运营。
3. 系统架构及解决方案
液冷云舱采用单相冷板式液冷架构,各子系统基于标准化机柜模型搭建,创新采
用新型风液同源冷却技术和解耦型标准化液冷机柜技术,打造冷板式液冷云舱全栈解决
方案,如图 2 所示,弹性适配不同场景快速交付,实现预制化、集成化、快速部署, 适配
服务器未来发展。
图 2 液冷云舱系统解决方案
结合业务需求的风液比例,通过基本模块的灵活组合,形成智算机房平面布局;
采用液冷+风冷的多元化冷却方案,统一楼层荷载,灵活适配未来演进。通过标准化
接口和快速接头等技术,实现弹性扩容需求,达到灵活部署。液冷云舱由冷量分配单
元 CDU、解耦型液冷机柜、二次侧管路系统及冷却液、舱体通道组件、水氟双冷源
列间空调等设备部件组成。
基本技术条件
液冷云舱采用冷通道/热通道封闭,主要由通道门、控制天窗、翻转天窗、固定天
窗、云舱框架等组成,其中通道门为自动平移门。风冷部分采用列间空调制冷,封闭
通道密封系统采用模块化装配式设计,可根据服务器上架量按需布置 CDU、IT 机柜、
液冷机柜、配电柜、空调等,每个单元均能独立安装,并能与相邻的单元连接。密闭
通道系统使云舱内的冷热气流隔离,有效提高气流利用率。
液冷云舱的外壳、柜体(包括液冷机柜、网络机柜、空调等)、走线架、框架等
金属表面统一颜色为砂纹黑(RAL9005),机柜尺寸:宽 600×深 1200×高 2200mm,外观
示意图如图 9 所示。
图 9 舱体通道组件示意图
液冷云舱的不同组件可按实际需求灵活搭配,主要组件在工厂预制,运抵施工现
场后根据实际条件进行拼装。液冷云舱结构框架与机柜及其他功能柜接缝处采用毛刷、
密封条等做密封处理,各部件参考如图 10 所示。
图 10 舱体通道部件参考示意图
(1)通道门(2)控制天窗(3)翻转天窗(4)云舱框架(5)显示屏(6)云舱底座
云舱通道顶部或门楣处预留监控摄像头、烟雾报警器、温度传感器等监控器件的
安装位置,门控端柜或构件处预留门禁的安装位置。云舱通道标准宽度为 1200mm,可
按用户要求根据实际情况合理调整。
冷量分配单元CDU
冷量分配单元 CDU 主要功能是将热量从热源(如服务器等)传递到冷却介质中,
从而实现对设备的有效冷却,作为整个液冷系统的“心脏”,负责提供并调节低温冷却
液,为冷却液提供循环动力,通过换热器将其热量传递至一次侧系统冷源,实现冷却
介质的降温。CDU 设备组成包括板式换热器、二次侧循环水泵、定压补液系统、膨胀罐、
过滤器、控制调节阀、温湿度传感器、压力传感器、温度传感器、流量计、控制系统、
触摸屏、电源模块、智能电表等配件,如图 3 所示。
图 3 冷量分配单元 CDU 示意图
智能变频水泵系统保证末端冷量分配稳定,将满足使用需求的冷却液经水泵提升
压力,通过管路、分水器进入负载,在负载吸热后再次返回 CDU,变频水泵热备运行,
通过动态调节流量与扬程匹配负载需求,实现能效最优。
高效钎焊板式换热器隔离一二次侧溶液,将室内二次侧热量转移至室外一次侧,
实现冷却液的温度降低。结合高精度过滤系统,防止系统堵塞,保证服务器冷板稳定
运行。智能监控系统实时采集温度、压力等数据,故障自动切换保障安全高效。
通过快接卡盘实现快速安装,自动补液系统集成液位-压力双闭环控制,简化操作
维护。
解耦型液冷机柜
解耦型液冷机柜包括机柜框架、分集液器、快速接头及连接软管、机柜供回水管、
供电单元等,如图 4 所示。采用标准化接口矩阵式配置方案,构建“液路+电路”双解耦架构,
实现不同液冷连接形式的服务器按需部署于液冷机柜,兼容不同厂商的服务器。通过
多重漏液防护设计,配备双向自密封的液冷连接器,提高了系统的可靠性和安全性,
保障液冷系统在整个生命周期内的可用性。
机柜柜体
图 4 解耦型液冷机柜示意图
机柜柜体主体采用局部焊接、整体拼装成型,表面喷涂。机柜系统主要由机柜框
架、导轨、侧板、网孔门、顶底板、扎线板等组成。
(1) 机柜尺寸:宽 600mm×深 1200mm×高 2200mm,机柜外形尺寸的偏差不得超过
(-3,0 mm),外表面对底部基准面的垂直度公差不得大于±3mm;机柜用于安装设备
(电源框、服务器、交换机等)的有效空间不小于 47U,机柜方孔柱每 U 高度为 ,
并在安装孔侧方丝印数字标识。
(2) 机柜满足 19 英寸和 21 英寸服务器设备和交换机的安装,同时兼容 OCP 标准设
备安装。
(3) 机柜可以并排安装,机柜并柜后柜体之间不应有明显的透光缝隙。采用水电
分离管理,后部左侧安装分集液器;右侧安装 PDU 或 Busbar 供电(根据实际项目需求进
行调整)。
分集液器
分集液器安装于液冷机柜内部,具备分液、集液和排气等功能。分集液器一般由
排气阀、分支管路和主管路等组成。
(1) 分集液器主管管材 304 不锈钢无缝方管,不少于 20 支路以上的分集液器建议
外径 50mm*50mm,厚度 3mm。焊接采用氩弧焊工艺,焊接应满焊,焊接前应对焊口清
污,焊缝表面不应有裂纹、焊瘤、气孔、咬边及未填满的弧坑和凹陷存在。
(2) 分集液器满足主路上限流量下的压损不超过 15kPa,分集液器内部最大工作
压力 ,承压能力不低于 。
(3) 分集液器分支管路接口管径、数量及类型与机柜内设备类型相匹配,能够实
现即插即通、即拔即断,接口自封闭,无滴漏。
(4) 分集液器管路设计需考虑机柜流量均匀,液冷机柜最大流量和最小流量之间
的不平衡率控制在 10%以内,且满足所有服务器设计散热需求。
机柜供电单元
液冷机柜通过集中供电系统为机柜内部用电设备提供电力,柜内供电系统主要有
两种形式,一种为盲插型供电单元包括电源框(Power Shelf)和供电母排(Busbar)
组成,供电电压为+48V~+54V;另外一种为常规的 PDU 供电单元。
盲插型供电单元
(1) 电源框
电源框将交流电转为直流电,支持+48V~+54V 恒压直流输出给服务器等设备供电。
单机柜内可安装多个电源框,每个电源框高度 1U,含 6 个电源模块和 1 个电源监控模块,
供电能力≥33kW。每个电源框可以独立运行,也可以多个电源框并联运行。
电源插框固定在机柜上,电源的气流方向需与机柜其余 IT 设备保持一致,前进后出
采用卡扣固定机柜前面的左右两侧的立柱上的,电源插框的后部也是卡装在后部左右
两侧立柱上,采用转接铜排与 Busbar 连接,如图 5 所示。
(2) 电源模块
图 5 电源插框固定在机柜示意图
电源模块单路电源输入,支持 AC/DC 单路输入,以及宽市电电压输入范围,极大提升
供电可靠性。系统采用模块化设计,即插即用方便扩容,带有 RS485 接口、CAN 接口
等通信接口,组网灵活。
电源模块额定输出电压为 54Vdc,最大额定功率 5500W,最高效率 97%以上。电源
模块通过 INPUT 端口从外部接入,输出汇集到电源框铜排上,电源模块外观如图 6 所示。
图 6 电源模块外观示意图
(3) 供电母排(Busbar)
供电母排 Busbar 位于机柜的背面,可实现左右步距调整,可满足盲插方式为服务器
设备及交换机设备供电,Busbar 的规格性能应满足以下要求:
1) 供电母排载流量:在环境温度 30°C 时,≥1400A/+54V
2) 母排压降:200mV
3) Busbar 正负方向:从机柜后侧看,左负右正
液冷服务器采用盲插方式通过标准化盲插端子和供电母排对接,实现标准化接口
和热插拔快接方式供电,如图 7 所示:
PDU 供电单元
图 7 供电母排盲插端子
根据实际项目需要及服务器设备类型不同,机柜供电单元可调整为 PDU 供电单元,
通过 PDU 为机柜内用电设备提供电力。
(1) 液冷机柜应配置两套独立、可拆卸、可更换的固定式配电单元(PDU),用
于机柜内设备两路电源的引入、分配、连接、保护及分合(通断)。
(2) PDU 的输入电源制式为三相交流 380V,每套 PDU 的供电容量均应与机柜用电
功率对应,输出分路容量应能满足各设备用电需求。
(3) PDU 外壳应采用金属或高阻燃塑胶材料(PC-ABS),能够有效抗射频、电
磁波干扰;面板应采用高阻燃塑胶材料(PC-ABS),阻燃特性符合 UL94-V0 等级和
国家相关规定。整体外观应平整、美观、协调,各部件安装牢固、紧凑,无松动。
PDU 输入端应设接线端子组,可以连接 25mm²以下的电缆,各输出分路应按用户要
求设插座或接线端子组,为设备提供接电条件。
二次侧管路
液冷云舱从室内换热单元 CDU 出口到液冷机柜分集液器入口的管路定义为二次侧
管路系统,包括 CDU 支管路、主干管、分支管、配套阀门、集水盘、漏水检测等,具
备分液、集液和排气等功能,如图 8 所示。
图 8 二次侧管路示意图
二次侧管道系统采用预制化、去工程化设计,现场安装无需进行焊接,所有组件
均在工厂内完成预制生产,硬管材质采用牌号 ASTM 304 及以上不锈钢,有效确保冷却液
的纯净度,避免结垢堵塞和腐蚀问题。软管采用 EPDM 材质,耐压性能、柔韧性更好, 提
高基础设施对智算服务器安全运行的保障程度。
单个环路系统中 CDU 与液冷机柜采用 N+1 的冗余配置,具备定位漏液监测功能,
提高管路系统安全性。二次侧管路设计压力不低于 10bar,可有效应对系统突发压力变化
情况。二次侧管路将冷却液分配至液冷机柜,各支路分流均匀性≤10%。
水氟双冷源空调
液冷云舱采用风液同源冷却架构,空调末端采用水氟双冷源机组,可与液冷 CDU
共用水冷冷源,实现液冷云舱风液比无极调节,满足多元化业务的应用场景,适配服
务器未来发展和智算中心的大规模部署。
水氟双冷源列间空调为双盘管水冷直接膨胀式空调机组。空调形式为列间,设置
于云舱机柜间。机组包含双盘管分别为氟盘管+水盘管,设备具有三种运行模式:机械
制冷、混合预冷、自然冷却,如图 11 所示。
(1)机械制冷 (2)混合预冷 (3)自然冷却
图11 三种运行模式示意图
当冷却水供水温度较高时,设备运行在机械制冷模式,压缩机开启;随着冷却水
温度降低,回风先经过水盘管进行预冷,不足的冷量由氟盘管承担,压缩机变频运行;
当冷却水温度足够低时,压缩机及氟盘管停止运行,热负荷完全通过水盘管换热由冷
却水带走。
图 12 水氟双冷源列间空调示意图
采用标准机柜式结构支持水平前送风,空调示意图如图 12 所示,可以灵活安装
于模块化机房内,支持并柜安装或列装,并具有以下特点:
a) 结构灵活:匹配模块化机房的灵活交付;
b) 系统可靠:实现无需集中式冷源补冷的风液同源设计;
c) 性能优异:充分利用自然冷源以提高空气冷却部分的能效比;
d) 场景广泛:具有优异的制冷性能和广泛的应用场景;
水氟双冷源空调能够有效满足智算数据中心预制化快速交付和模块化灵活部署
的建设需求,适配风液同源、弹性风液比的应用需求。
4. AI 数字化管理平台
液冷云舱的 AI 数字化管理平台整合智能传感、监测和智能调度系统,通过监控
屏幕的数据呈现,实现对云舱内液冷 CDU、列间空调、液冷电源、环境等状态的不
间断监控。通过整合云舱系统的数字化仿真、漏液监测和智能调度能力,实现集约化管
理和自有产品的纳管。
(1) 智能监控功能
液冷云舱智能化管理平台由一体化监控单元、传感器、数据交换设备、显示屏等
硬件组成,具备对设备数据的采集、存储、分析、告警、展示等,实现对动力、环境、消
防、视频、空调等系统的监控和告警预警、消防联动等功能。
智能化管理平台具有良好的可视化界面,根据实际需求可提供全面的管理功能。
监控系统应对云舱内温湿度、漏水监测、烟雾监测进行监控并按控制逻辑发出告警信号。
融合数字化仿真和控制模型孪生技术,将数字化仿真和智能调度所需数据生成和算法进
行验证,作为漏液预测和调度决策的技术底座。
(2) 健康管理功能
液冷云舱智能化管理平台可对液冷 CDU、空调告警信息实现显示、管理和分析,
具备健康度评价等功能,包含安全性和功能性评价,支持对 CDU、列间空调和二次
侧管路等进行智能健康管理。
AI 健康管理功能依据负载变化(如 AI 训练任务峰值)和 PUE 目标,动态调节
冷却液流量分配、循环泵频率和空调风机转速等。通过毫秒级监测杜绝热失控和漏液风
险,实现健康管理与节能降耗协同,守护高价值算力设备,推动数据中心全生命周期主
动健康保障。
5. 经济效益分析
液冷云舱可实现预制化、标准化快速部署,相比从设备采购、现场加工、组装施工、
调试等的传统建设模式,理论测算采用液冷云舱建设模式可大幅降低部署周期, 综合建
设周期缩短 10%。
采用高效节能的硬件设备和节能技术的应用,降低了数据中心的能耗和运行成
本。单机柜可达 20-60kW,水氟双冷源空调在指定工况下达到较高的全年能效比,对
比传统风冷数据中心液冷云舱预计能效提升 20%。
通过智能化管理系统,实现对数据中心的实时监控和自动化管理,提高了智算数
据中心的运营效率。
五、 冷板式液冷系统工程设计要点
1. 一般规定
对于单机架功率 20kW 及以上的制冷需求,综合技术成熟度、经济性,优先推
荐采用冷板式液冷系统。
2. 负荷计算
负荷计算可参考现行规范《数据中心设计规范》GB 50174-2017 的相关要求。
服务器液冷散热部分负荷可根据机架液冷部分运行功率进行计算。液冷占比按照
系统形式及服务器器件散热情况进行确定。
对于液冷系统机房,风冷部分负荷除考虑房间围护结构、照明等冷负荷外,还需
要考虑液冷系统向房间的散热负荷。
液冷机架对应的电力设备发热负荷,可按效率损失转换成热能计算。
3. 设计要求
1) 液冷冷源
液冷冷源应综合考虑室外环境气象参数(干球温度、湿球温度),以及建筑物规模、
当地水资源条件等因素确定,宜全年利用自然冷源。
优先采用开式冷却塔+板换或闭式冷却塔方案,不应直接使用开式冷却塔冷却水。
对于极端缺水地区、严寒地区可采用干冷器方案,同时为满足夏季冷却侧供水温度需求,
可配置水喷雾冷却系统或进风侧湿膜加湿系统。对于无法全年使用自然冷源的液冷系统
应配置机械压缩补冷装置。
为提高液冷侧节能性,宜提高冷源系统一二次侧供回液温度,加大供回液温差,
降低冷源设备的功耗。在保障液冷服务器用冷安全的前提下,液冷换热单元 CDU 室
外一次侧设计进水温度不宜低于 35℃,室内二次侧设计供液温度不宜低于 40℃,一
二次设计供回水/液温差不宜低于 10℃。
2) 液冷系统
设计中应分别针对不同的液冷系统特点,合理布置设备及设计管路系统形式。设
置冷板式液冷的主机房应做好冷板液冷系统和风冷系统两套冷却系统管路的路由规
划、标识保证路由紧凑、合理,各管道能够清晰识别,具备检修空间。
液冷系统分为一次侧和二次侧两部分。一次侧可采用风冷或水冷散热方式,主要
由冷却塔(或干冷器)、循环动力组件、管路系统构成,对于自然冷却无法满足的液冷
系统,还包括机械压缩补冷装置;二次侧主要由液冷末端、管路系统、冷量分配单元
CDU 构成。
液冷二次侧水系统不平衡率应控制在 10%以内,在最不利单点故障工况,不平
衡率应不大于 15%。液冷二次侧管路宜采用不锈钢材质,同时管路中管件、阀门等
应采用相同材质,接液材质应与液体具备兼容性,同时二次侧管路施工方式宜采用预制
化形式。
环路工艺冷媒供回歧管底部需设置集水盘,集水盘需采支持分段预制且可实现定
向排水,集水盘建议设置不小于 i= 坡度,内部需沿管路路由全部铺设米级定位式
漏水告警绳,定位式漏水告警绳敷设应覆盖环路工艺冷媒供回歧管及阀门。漏水绳上需
安装定位标识,漏水检测的告警信号应可接入机房动环管理系统,当出现漏液告警时
可将发生泄漏的物理位置定位到某个主管路。
液冷一次侧所需冷却塔、板换、水泵等宜采用 N+1 备份设置,进入 CDU 之前的
一次侧管路及 CDU 之后的二次侧管路宜采用双管路或环管形式,CDU 应采用 N+1 配置。
液冷系统的冷却液不应直接排放至排水系统,应为冷却液设置专用的收集、回收
装置,经专业处理后方可排放。
六、 液冷新技术探索
1. 相变冷板冷却技术
两相冷板式液冷是指冷却工质在冷板式蒸发器内吸收热量后沸腾,产生的蒸汽流
向冷凝器后冷凝,实现热量高效转移。两相冷板式液冷技术的核心在于利用冷却液的“相
变”过程来高效传递热量。当冷却液流经冷板与芯片接触的区域时,吸收芯片产生的大量
热能后,会从液态蒸发为气态。液态到气态的相变过程会吸收大量的潜热, 其单位质量
冷却液带走热量的效率远高于仅依靠显热交换的单相冷却方式。
冷却介质采用氟化物作为工艺冷媒有效提升冷板液冷系统散热能力和可靠性(如
泄漏为气态且不导电,不会危及服务器安全),关于冷却介质的选择,研究表示包括
R134a、R513A、R515B、R471A 等均可使用。英伟达和国内厂商也有带制冷剂泵驱
动的动力热管解决方案,这种方式可以使散热器与机柜的相对位置更加灵活,甚至可
以支持多机柜的多联系统。
实现稳定高效的两相冷却目前存在两个突出的问题:首先是系统压力较高,冷却
液在蒸发时会产生较高的蒸汽压力,两相系统的工作压力通常会达到 5Bar 甚至更高, 远
超单相系统约 1~2Bar 的压力水平,这对系统的冷板、管路、接头、等密封件的耐压性
能和结构强度提出了较高的要求。其次,由于系统内存在蒸发和冷凝,在冷板内存在气液
两相流动,冷板内部微通道结构的设计、冷却液的流量控制以及气液两相的流量分配,都
是确保两相系统高效稳定运行的关键技术。
2. 环路热管两相散热技术
环路热管属于无源的两相散热器件,具有传热效率高、传热量大、热传输距离远、
布置灵活等突出优点,其热量转移距离和传热量均远高于传统热管。同样属于两相冷板
式液冷的范畴,但工作机制有所不同。
环路热管是一种被动式两相热传装置,它同样利用工作流体的相变(蒸发与冷凝)
来传递热量。其结构主要包括蒸发器(一种特殊结构设计的冷板,内部含有多孔毛细
芯)、冷凝器、蒸汽管、液体管和补偿腔。环路热管依靠蒸发器内毛细芯的毛细力驱动
工作流体循环,无需外部泵的功耗,具有高导热系数、长距离传热、结构灵活、无运动部
件、可靠性高等优点,尤其适用于对可靠性要求高或空间受限的高热流密度散热场景。
3. 芯片级液冷技术
芯片级散热技术是直接在芯片表面或芯片内部实施的散热措施,可以更直接、更
快速地将热量从热源(芯片)传递出去,由于空间狭小、环境复杂,所以对散热材料
及器件结构有着极高的要求。
根据热源到换热结构的热传导路径不同,芯片级散热技术一般可以分为三种类
型:
第一种为远端冷却架构散热技术,芯片与热沉冷板之间通过 2 层界面材料进行热
传导。
第二种为近芯片冷却架构散热技术,随着热流密度与芯片面积的增加,远端冷却
能力越发不足,因此直接将芯片通过 1 层界面材料与热沉冷板贴合,形成近芯片冷却
架构。相比于远端冷却架构,由于减少了 1 层界面材料与热扩散层,进一步降低热阻,
提高了可冷却的热流密度。
第三种为芯片内嵌冷却架构散热技术,即通过消除芯片和热沉冷板之间的界面材
料,直接在芯片衬底上刻蚀微通道,将流体引入其中,达到冷却效果。
芯片内嵌冷却在高性能芯片热管理方面具有巨大的应用潜力,与远端冷却和近芯
片冷却相比,该方案总热阻显著降低。因此,以芯片为对象并相互联动的超高热流密度
散热装置成为必然趋势。
七、 结语
AI 智算的引入使得 IT 设备机柜功率密度宽幅变化,通算、超算、智算多元化的格
局已经形成,导致数据中心的灵活适配、动态调节能力成为重要的建设需求。智算
服务器的引入,数据中心由单机柜功率 8kW 以下风冷通用算力设备升级至 40kW 以上
液冷智能算力设备,为数据中心制冷和能耗带来了前所未有的挑战,因此探索低能耗、
高制冷效率以及高效能的数据中心建设方案,成为新型数据中心发展和未来高算力业
务的最优路径。
液冷云舱采用单相冷板式液冷架构,各子系统基于标准化机柜模型搭建,建设方
案采用兼容列间空调和液冷 CDU 的多元化解决方案,实现制冷量的按需匹配,达到节能
降耗的需求。创新采用新型风液同源冷却技术和解耦型标准化液冷机柜技术,打造冷板式
液冷云舱全栈解决方案,弹性适配不同场景快速交付,实现预制化、集成化、快速部署,
灵活适配模块化机房的应用场景,满足多元化业务的未来发展。