简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

中金:景气度+算力升级+技术迭代多轮驱动,全球液冷产业链有望加速放量

2025-08-07 09:17

本文来自格隆汇专栏:中金研究,作者:王颖东 曲昊源 等

在海外算力开支持续提升、算力芯片及液冷方案持续迭代升级下,我们看好AIDC液冷板块有望迎来斜率向上的投资机会;国产液冷链有望借新技术窗口期以及决策链分散化切入海外配套;此外随着国产算力芯片突破,我们看好国产液冷链的替代机遇。

摘要

AI发展驱动芯片功耗大幅增加,散热方案向液冷升级。生成式AI浪潮的驱动下,算力需求持续攀升,带动服务器芯片功耗提升;同时,全球主要国家/地区对IDC能效管控加严;数据中心原有的风冷散热无法支撑高算力密度及能效管控下的散热需求,散热技术方案向液冷升级迭代;AIDC液冷架构分为一次侧(热量传输过程)和二次侧(IT设备冷却)组成。

景气度+技术迭代双轮驱动,液冷产业链alpha属性突显。海外算力资本开支持续上修,液冷处在高景气度的通量中;同时英伟达算力芯片持续迭代,功耗提升,驱动液冷技术方案升级迭代,下一代GB300液冷方案在二次侧液冷板、UQD、CDU等技术方案上变化较大,一次侧在高算力、高能效需求下,我们认为磁悬浮水冷机组应用有望提速。此外,随着国产算力芯片突破,我们认为液冷在国内市场亦有望迎来加速渗透。

全球液冷市场规模有望超1500亿元,冷板、CDU细分市场需求较大。基于Markets and Markets数据,2032年液冷市场规模有望提升至211.4亿美元(约合人民币1517.7亿元),2025-2032 CAGR 33.2%;我们基于英伟达液冷需求测算,液冷板、CDU细分市场需求较大。

液冷决策链或从集中逐步走向分散,市场格局仍有变化的可能。全球AIDC液冷市场当前由外资、台系厂商主导;决策链目前主要由CSP(终端用户)决定,同时英伟达亦具备较高话语权,但随着ODM厂商等切入液冷赛道,决策链或有分散化的趋势,叠加技术方案的快速迭代,我们认为液冷市场格局仍有变化的可能。

投资建议:1)看好受益北美算力资本开支上行、有望进入供需偏紧的环节;2)看好受益GB300液冷方案升级的方向、国产厂商有望借新方案切入;3)国产算力突破,把握国产液冷链替代机遇。

风险

算力资本开支落地不及预期;新技术量产进展不及预期;市场竞争加剧。


AI发展驱动芯片功耗提升

散热方案加速向液冷升级


AI发展驱动算力需求提升,芯片功耗大幅增加,带来更强散热需求

生成式AI浪潮的驱动下,算力需求持续攀升,服务器芯片功耗不断提升。从通用服务器到AI算力芯片,其功耗呈现指数级增长态势。通用服务器 CPU 功耗通常在 200W - 300W 左右,而AI算力芯片功耗大幅提高,以英伟达为例, H100及H200功耗为700W,Blackwell 架构的GB200单芯片最大功耗达1200W,GB300则进一步提升至1400W,带动整体机柜功耗从120kW提升至132kW。

图表:英伟达芯片功耗及性能演进

资料来源:英伟达官网,中金公司研究部

全球数据中心能效管控趋严

在全球碳中和趋势下,主要市场政策对数据中心的电能利用效率(PUE)等指标提出了更严格的要求。PUE(Power Usage Effectiveness,电源使用效率)是衡量数据中心能源效率的重要指标,计算公式为PUE=数据中心总能耗/IT设备总能耗,其值越接近1,表明数据中心的绿色节能程度越高:

 国内:我国《数据中心绿色低碳发展专项计划》规定,到2025年底,全国数据中心整体上架率不低于60%,PUE降至1.5以下;新建及改扩建大型和超大型数据中心PUE降至1.25以内,且国家枢纽节点数据中心项目PUE<=1.2。

► 美国:美国通过数据中心优化计划(DCOI)从联邦层面规范能源消耗,根据DCOI,现有联邦数据中心需在2025年前达到PUE<=1.5,新建项目需<=1.4,且要求强制安装数据中心基础设施管理软件,实现能耗实时监控。而各州也进一步采取措施,加州对PUE<1.2的数据中心提供“能效税优”,可抵免30%税收。

 欧洲:自2025年1月起,欧盟所有数据中心必须按照EN50600标准强制测量并公开PUE数据,纳入欧盟统一数据库管理。2026年7月起,现有数据中心需满足PUE<1.5,2030年进一步降至<1.3;新建数据中心自2026年起PUE需<1.2。

数据中心整体散热方案向液冷升级

AI发展驱动算力需求提升,带来芯片、机柜功率大幅增加,传统针对芯片级和机柜级的风冷方案逐步不适用,需要升级为液冷:

► 芯片级:传统的散热方式主要以风冷为主,例如热管、均热板(VC、3DVC)等。这些技术通过空气流动带走热量,但由于空气的热传导效率较低,传统风冷散热技术通常只能有效支撑功耗在1000W以下的芯片。随着数据中心算力需求的不断提高,高耗能芯片的散热问题变得愈发严峻,例如英伟达GB200功耗达到1200W、GB300功耗则进一步提升至1400W,传统风冷技术散热方案无法支撑散热需求。

图表:芯片级散热方案对比

资料来源:ODCC《冷板液冷服务器设计白皮书》,2023,中金公司研究部

► 机柜级:传统机房采用房间级制冷、地板精确送风和冷热通道隔离技术,可解决单机架4-6kW散热问题。但在传统机房增加高密度机柜,采用传统空调会出现:1)原有空调难满足新增高功耗设备需求;2)机房环境温度控制不佳、存在局部热点;3)高功耗设备需大量排风,空调风量增加,受架空地板高度限制,系统阻力和能耗上升等问题。随着算力芯片功耗提升、亦带来整柜级功率增加,如英伟达GB200、GB300 NVL72机柜功耗高达120kW、132kW,传统机柜级别风冷散热达到瓶颈,亦需要迭代为液冷。

图表:机柜级散热方案与功率的关系

资料来源:维谛技术官网,中金公司研究部

数据中心液冷架构分为一次侧(热量传输过程)和二次侧(IT设备冷却),从工作流程看:

► 一次侧:一次侧包含室外冷源(冷机/冷却塔/干冷器)和一次侧冷却液,室外冷源可选择开式/闭式冷却塔、干式冷却器等;一次侧冷却液常用去离子水、乙二醇水溶液等,并配合相应化学药剂使用。当二次侧的热量传递到一次侧后,一次侧冷却液携带热量流经室外冷源,通过冷源将热量释放到大气中,降温后的冷却液再回流至 CDU,继续接收二次侧传递的热量,形成完整的散热循环,确保数据中心的热量能够持续有效地排出。

► 二次侧:在数据中心液冷散热系统中,二次侧主要对 IT 设备进行冷却,工作围绕吸收设备热量并将热量传递给一次侧展开。二次侧包含冷量分配单元(CDU)、液冷机柜及内部的液冷组件等关键组成,冷却液在机柜内与发热器件直接或间接接触,如冷板式液冷中冷却液通过液冷板间接吸收芯片热量,浸没式液冷中冷却液直接包裹发热元件,之后吸收热量的高温冷却液通过 CDU 内的换热器,将热量传递给一次侧冷却液,自身降温后再次循环回到液冷设备中,继续完成散热。

图表:数据中心液冷架构工作流程图

资料来源:严劲等《数据中心液冷散热技术及应用》,2024,中金公司研究部

景气度+技术迭代双轮驱动

液冷产业链alpha属性突显


景气度:当前液冷需求主要由海外市场主导,海外云厂商持续上修资本开支

由于国内受英伟达高算力芯片供应限制,目前液冷需求主要由海外市场主导;海外云厂商作为支撑AI应用的关键载体,资本开支(CAPEX)直接决定了算力供给与技术落地的进程。基于Bloomberg一致预期,2025-2026年海外TOP5云厂商有望达3424亿美元和4055亿美元,分别同比增长51.03%和18.42%。而从2Q25已披露业绩的云厂商反馈,AI投入持续扩大。

图表:中美主要云厂商资本支出

资料来源:Bloomberg,中金公司研究部

技术方案:从英伟达GB200到GB300,液冷方案再升级

英伟达从GB200开始采用液冷方案、单颗芯片功耗达1200W;在2025年3月GTC大会上,英伟达发布了新一代AI芯片Blackwell Ultra(GB300),在推理性能、显存与带宽、计算能力等方面实现了多项突破性升级,单颗芯片功耗达1400W,相应的对液冷方案进行了升级:

二次侧:变化点主要在液冷散热模组和CDU

液冷散热模组:GB300冷板、UQD、管路用量均有较明显提升

► GB200液冷散热模组:采用“整块冷板”思路一块大尺寸液冷板横向覆盖CPU与两块 GPU,每个计算托盘只需6对标准快接头(UQD)和两根总管即可把冷液送到冷板、经 Manifold回流CDU;管路稀疏、接头尺寸大,维护时需整块托盘抽出,属于“集中散热”设计。多个冷板回路经由冷管汇集成一个整体回路,最终连接至机箱外壳。

► GB300液冷散热模组:改为“独立冷板”方案。每颗GPU独享一片微通道冷板,冷板数量翻倍、冷管线密度提升30%,单个托盘快接头提升至14对;同时快接头换用直径仅8 mm的UQD03,支持盲插与热插拔;独立冷板设计实现芯片级精准散热,但因尺寸变小(如UQD尺寸较GB200缩小至1/3)以及连接点位增多带来潜在漏液概率提升,GB300液冷方案对液冷板、UQD制造工艺复杂性提升,包括加工精度、密封性能、组装精度等,对可靠性的认证亦更严苛,如针对UQD需要加速插拔、材质可靠性认证,测试周期长达数百乃至上千小时。

图表:英伟达GB200和GB300液冷散热模组方案对比

资料来源:Computex Taipei 2024,CoolIT官网,中金公司研究部

CDU:由Liquid to Air(L2A)转向Liquid to Liquid(L2L)

 GB200 CDU普遍采用L2A方案,通常采用边车(sidecar)的配置,CDU主要由泵、热交换器、过滤系统和用于执行这些功能的控制设备组成。其工作流程为:CDU中的泵将冷却液送入分水器,随后分配至每个服务器托盘的液冷板中,吸收GPU、CPU及NV Link产生的热量,再通过管路返回CDU。在CDU中,热交换器利用风扇将热量散发至数据中心机房,机房空调再进一步将热量排出。

 GB300 CDU将切换为Liquid to Liquid方案。L2L使用钎焊板式换热器取代L2A的散热器,冷却液吸收IT设备内的热量后进入CDU,热水在板式热交换器的"二次侧"与数据中心提供的冷水在中间不锈钢板片间进行热交换,热能被传递到"一次侧 ",最终热水被送至冷却塔进行冷却。

相比于L2A,L2L的冷却能力更强、功耗小,带来更优的PUE表现;但L2L需要额外增加基建,比如布局管道和水设施,部署效率较L2A低;L2A则可以直接利用现有基础设施部署。

图表:L2A与L2L对比

资料来源:英伟达官网,中金公司研究部

一次测:磁悬浮压缩机渗透率有望提升

压缩机是冷水机组的核心部件,通过压缩制冷剂,使其在蒸发器中吸收设备热量,在冷凝器中释放热量,实现制冷循环;且压缩机性能直接影响数据中心PUE,并保障系统稳定性。压缩机按技术原理分为螺杆式、离心式、磁悬浮式。目前数据中心以螺杆式、离心式为主,但随着GB300机柜算力提升带来高密度散热和能效管理需求,我们预计磁悬浮压缩机渗透率有望加速提升:

 磁悬浮压缩机与螺杆式相比,主要区别在于轴承不同,从原来的油轴承换为磁轴承,这使得其无油无摩擦,噪音低、寿命高,效率高同时保持低能耗。磁悬浮压缩机壁垒较高,核心在磁轴承研发及制造,以及磁轴承控制、磁轴承运行时需时刻保持高频对中。

 维谛积极推广磁悬浮冷水机组产品。根据维谛技术磁浮产品性能数据,较传统有油系统节能45-50%,并且避免了传统机组因油垢堆积导致的换热下降,整机性能衰减低至2%,远优于传统机组30%的衰减水平。全生命周期寿命有效延长10 年,设备高效运行25年+。同时,由于油滤检查清洗、油泵检测、冷冻油更换等繁琐维护项目简化,运维成本降70%[1]。

图表:不同水冷机组压缩机方案对比

资料来源:汉中精机官网,维谛技术官网,中金公司研究部

算力持续迭代有望驱动液冷技术进一步升级

芯片算力仍然在持续迭代中,英伟达下一代算力芯片Rubin功耗有望提升到1.8kw,带来更强的散热需求,我们预计液冷技术路线或将进一步升级迭代:

两相式冷板液冷:

当前数据中心液冷多采用单相式冷板液冷技术,但当芯片功率在进一步提升1500-2000W时,单相冷板散热或将达到瓶颈、从而催化两相冷板需求[2]。单相冷板采用沸点较高的水基冷却液,换热过程不发生相变,而两相式冷板利用工作气流在气液两相之间的相变来实现热传递。两相冷板式液冷工作时,液泵将冷却液送至冷板内,冷却液吸收芯片热量后,由液态蒸发为气态。之后冷凝系统会将气态冷却液重新变回液态,使其能被液泵再次送入冷板,开始下一轮循环。

两相式冷板技术利用相变潜热,在相同体积和流量下能带走更多热量、综合散热效率更高,适合高算力密度设备散热需求,但技术复杂度和成本也相对较高。

图表:单相和亮相冷板式差异点

资料来源:亿储电气公众号,严劲等《数据中心液冷散热技术及应用》,2024,中金公司研究部

浸没式液冷:

浸没式液冷通过将服务器元器件完全浸没在冷却液中实现散热,适合更高功率密度场景的散热。浸没式液冷根据冷却液是否发生相变,分为单相浸没和两相浸没:

► 单相浸没式液冷:在单相浸没式液冷系统里,CDU 循环泵驱动二次侧低温冷却液从浸没腔体底部流入,当流经竖插在浸没腔体中的 IT 设备时,吸收发热器件散发的热量。吸收热量后的二次侧冷却液温度升高,随即从浸没腔体顶部出口流出,返回 CDU。在 CDU 内部,通过板式换热器,二次侧冷却液将吸收的热量传递给一次侧冷却液。一次侧冷却液吸热升温后,借助外部冷却装置,如冷却塔,把热量排放至大气环境,从而完成整个冷却循环过程 。

► 双相浸没式液冷:双相浸没式液冷区别于单相浸没式液冷之处在于冷却液会发生相变。两者传热路径相似,主要差异在于二次侧冷却液仅在浸没腔体内部循环,浸没腔体内顶部为气态区、底部为液态区;IT设备完全浸没在低沸点的液态冷却液当中,在吸收设备热量后,冷却液发生沸腾,汽化产生的高温气态冷却液密度较小,将汇聚到浸没腔体顶部,与安装在顶部的冷凝器换热后重新冷凝为低温液态冷却液,由重力作用回流至腔体内部,实现对设备散热。

长期来看,浸没式液冷在散热效率、单机柜功率以及空间利用率等方面相较于冷板式液冷具有明显的优势。

图表:单相、双相浸没式液冷对比

资料来源:严劲等《数据中心液冷散热技术及应用》,2024,中金公司研究部

国内算力芯片升级

液冷有望提速


国产算力芯片逐步推出,功耗提升,有望带来液冷提速

算力时代已至,国产算力芯片算力功耗同步,有望带来液冷提速。2019年起,国家密集出台政策(如 “东数西算” 工程相关意见),首次将 “算力” 纳入国家战略要素,明确2025年全国算力供给目标突破 45 EFLOPS;叠加地缘政治/贸易摩擦风险增加,国产算力芯片厂商加速自主研发算力芯片,我们认为有望带动液冷技术加速应用。

图表:国产算力芯片主要厂商及产品性能指标

资料来源:各公司官网,中金公司研究部

国产服务器厂商逐步推出液冷服务器产品方案,液冷散热有望进一步渗透国内市场。从产业布局来看,主流服务器制造商自2022 年起陆续建成冷板液冷服务器标准化规模产线,头部厂商均已明确液冷战略,为液冷技术产业化提供支撑。市场竞争格局方面,液冷服务器领域呈现稳定态势。由于现有服务器厂商布局液冷服务器的技术门槛不高,市场竞争主要集中在现有厂商之间。据IDC数据,2022年中国液冷服务器市场规模达到10.1亿美元,同比增长189.9%。

液冷产业链当前由外资、台系厂商主导,但格局尚未定型

液冷产业链图谱

AIDC液冷产业链环节较多,各个环节的供需关系、产业结构特点亦不同。一次侧主要包括水冷机组及其核心部件压缩机、干冷器等;二次侧包括CDU、Manifold、冷却管路、快速接头UQD、液冷板等。

图表:液冷产业链图谱

资料来源:Flex官网,TrendForce,各公司官网,中金公司研究部

液冷产业链市场格局:当前由外资、台系厂商主导

基于QY research数据,全球数据中心液冷需求集中在亚洲和北美,2023年占比约37%/31%;从产品类型看,冷板式液冷为主流技术方案、2023年占比约63%。从供应格局看,2023年全球数据中心主要液冷技术提供商包括维谛技术、世图兹、Midas Immersion Cooling、德国威图、深圳市英维克、CoolIT、施耐德电器等,CR5占比约40%,单一企业份额不超过15%,由于液冷技术方案相对偏定制化,整体市场偏分散、集中度偏低。

图表:全球液冷技术提供商市场格局(2023年)

资料来源:QY research,中金公司研究部

细分到液冷产业链各环节看,目前各环节份额主要由外资厂商及台系厂商主导,国内厂商目前占比较小或处在导入阶段。

图表:各细分环节份额梳理(截至2024年12月)

资料来源:英伟达官网,QY research,各公司官网,中金公司研究部

决策链:从集中逐步走向分散化

因液冷组件不同产品技术、工艺等差异较大,不同厂商在不同产品上各有专长,因此下游客户对液冷组件倾向于分部件采购。从决策链看,此前液冷组件Tier1供应商的选择需要主要由CSP(终端用户)决定,同时英伟达亦具备较高话语权,但随着ODM厂商等切入液冷赛道,决策链逐步分散化:

► CSP(终端用户):通常液冷技术方案的设计、定型和供应商的选择均由终端云厂商如谷歌、微软、亚马逊等决定,部分CSP厂商亦会自主设计液冷解决方案和部件,以实现差异化、提升附加值。但考虑到使用风险,终端用户通常会参考英伟达的供应商推荐名录。

► 英伟达:液冷散热的核心在芯片和机柜,因此英伟达亦会自己定义液冷方案及供应商,一方面供采用英伟达算力芯片的终端用户参考,另一方面供自己的AI工厂使用;对于英伟达自身的AI工厂,英伟达对液冷方案及供应商具备最终的决策权。

► ODM:ODM厂商如富士康、鸿海逐步开始自主开发设计液冷方案,一方面出于供应链安全保障,以防止存量供应商因产能或者质量问题无法满足交付,另一方面提升溢价,并通过自主设计形成差异化竞争优势;相应ODM厂商亦将培养自身的液冷供应链。

综上,我们认为当前AIDC液冷处在1-10放量的初期阶段,技术方案在快速优化和迭代、供应链在研发转大规模量产可靠性验证的过程;同时叠加ODM等厂商加入决策链,我们认为当前AIDC液冷产业链格局尚未固化,仍存在调整的可能性。

市场空间:预计2032年全球液冷市场规模有望超1500亿元

根据Markets and Markets数据,2024年全球数据中心液冷市场空间约19.6亿美元(约合人民币140.7亿元,基于2025年8月4日汇率1美元=7.1791元,下同),预计2025年全球数据中心液冷市场有望达28.4亿美元(约合人民币203.9亿元)、同比高增44.9%,并预计至2032年液冷市场规模有望提升至211.4亿美元(约合人民币1517.7亿元),2025-2032 CAGR 33.2%。液冷市场主要的驱动来自AI、云计算、高性能计算发展,带动高密度算力计算需求,驱动数据中心转向散热效率更高的液冷方案。

图表:全球数据中心液冷市场空间

资料来源:Markets and Markets,中金公司研究部

细分环节看,我们基于英伟达GB200/GB300NVL72机柜出货以及各细分环节的量价假设,测算英伟达液冷需求空间;我们算得液冷板、UQD、manifold、CDU 2025年需求分别为59.0亿元、37.0亿元、12.9亿元、90.3亿元;2026年需求分别为115.7亿元、65.9亿元、18.8亿元、124.9亿元。从市场规模看,冷板和CDU的空间较大。

图表:英伟达液冷需求测算

资料来源:英伟达公司公告,思泉新材公司公告,川环科技公司公告等,中金公司研究部

风险提示

► 算力资本开支落地不及预期:目前各家云计算厂商给出了较为积极的资本开支计划且数据中心的投建也动作频频,但若最终算力资本开支的落地不及预期则会导致需求端出现较大波动。

► 新技术量产进展不及预期:GB300液冷方案较GB200变化较大,较多部件需要重新选型或开发,若供应链无法按期实现量产,将影响GB300出货,最终影响产业链业绩释放。

► 市场竞争加剧:液冷产业链目前格局尚未完全稳固,各环节持续有新厂商切入,下游ODM、云厂商亦有自研趋势,若市场竞争加剧,将导致产业链盈利下滑。

本文摘自中金公司2025年8月6日已经发布的《AI“探电”(八):景气度+算力升级+技术迭代多轮驱动,全球液冷产业链有望加速放量》

王颖东 分析员 SAC 执证编号:S0080522090002

曲昊源 分析员 SAC 执证编号:S0080523060004 SFC CE Ref:BSW232

王梓琳 分析员 SAC 执证编号:S0080523080005

江鹏 分析员 SAC 执证编号:S0080523080006

季枫 分析员 SAC 执证编号:S0080523060017 SFC CE Ref:BWD098

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。