繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

中金:預計2026年全球AI液冷市場規模有望達到86億美元

2025-08-21 13:27

本文來自格隆匯專欄:中金研究 作者:朱鏡榆 温晗靜等

AI大模型更新迭代以及應用落地驅動算力需求提升,芯片功耗與算力密度持續攀升,液冷憑藉散熱效率、部署密度等優勢,正加速替代風冷逐步成為主流方案。中金研究預計2026年全球AI液冷市場規模有望達到86億美元,實現市場規模的快速提升。

摘要

芯片及服務器的功率密度提升,液冷替代風冷為AI時代大勢所趨。AI芯片及服務器功率密度攀升,Vertiv預計至2029年,單個AI GPU機櫃的功率將超1MW,單AI POD的功率將超500kW,對散熱系統提出挑戰,而當機架密度上升至20kW時,液冷散熱的優勢凸顯。此外,在數據中心拉昇電力需求、PUE成為監管重點的背景下,散熱系統作為數據中心第二大能耗中心,散熱效率提升成關鍵。中金研究認為,液冷憑藉更高散熱效率、提升算力部署密度及降低系統功耗的優勢,有望實現對傳統風冷的替代。

冷板式液冷領跑產業化,浸沒式與噴淋式處於技術探索初期。按服務器內部器件是否直接接觸冷卻液,液冷可分為間接接觸式(冷板式液冷)和直接接觸式(浸沒式液冷與噴淋式液冷)。其中,冷板式液冷系統中,冷板可直接貼附在芯片等服務器內器件上進行散熱,與直接接觸式液冷相比,對設備和機房基礎設施改動較小,而散熱效果較風冷明顯提升,為當前發展最為成熟的液冷散熱方案。中金研究認為冷板式液冷有望率先規模落地。

產業鏈百舸爭流,市場空間廣闊。產業鏈上游(冷板、CDU、快速接頭等)、中游(服務器廠商、解決方案商)加速佈局,下游雲廠商率先規模化應用,英偉達GB200及GB300     NVL72加速產業生態形成,市場空間廣闊。根據IDC,2024年我國液冷服務器市場規模同比增長67.0%達23.7億美元,預計2024-2029年CAGR有望達46.8%;中金研究測算,2025/2026年全球AI服務器液冷市場規模有望達30.7億美元/85.8億美元。

風險

AI應用落地進展/液冷散熱滲透率不及預期,新技術發展導致產業鏈變遷。

正文


散熱:雲端算力基礎設施的核心構成,散熱需求旺盛


AI驅動雲端算力基礎設施需求旺盛

全球AI大模型持續迭代,商業化能力正不斷增強。2022年以來,國內外眾多廠商如OpenAI、Anthropic、谷歌、國內如MiniMax、DeepSeek、字節等,不斷推出新模型或更新迭代現有模型,2025年上半年全球範圍內主流廠商發佈的大模型數量明顯增加,且呈現出更為密集的發佈節奏。此外,中金研究看到AI的商業化能力不斷增強。根據The Information,OpenAI當前年化收入水平已達到120億美元,相比2024年40億美元的收入實現大幅增長;Anthropic年化收入超過40億美元,較年初增長了四倍。頭部大模型公司開始形成商業梯度,產品多維佈局、面向下游的收費方式形成合理結構。以Anthropic為例,根據公司官網,Anthropic目前面向消費級個人用戶、SMB/Teams和企業級/行業垂類用户有多種訂閲套餐。

圖表1:2022年以來AI模型更新時間線

資料來源:公司官網,中金公司研究部

隨着AI模型訓練及推理需求的持續增長,雲端算力基礎設施需求旺盛,全球頭部的互聯網雲廠商及科技廠商加大資本開支。2Q25北美Top4雲廠商(亞馬遜、谷歌、微軟、Meta)合計資本開支(含融資租賃)為958.4億美元,同比增長66%、環比增長24%,超出中金研究和市場預期。根據公開業績會,谷歌2025年資本開支指引從750億美元上調至850億美元,並指引2026年進一步增長;Meta上修FY2025資本開支指引至660-720億美元(前值為640-720億美元),並指引FY2026資本開支有望維持類似FY25的顯著增長;微軟預計1QFY26資本支出將超過300億美元,持續加大對基礎設施的投資力度;亞馬遜預期FY25H2資本開支有望維持2QFY25的投資力度,四家北美雲廠商2Q25單季度capex及對未來capex的指引均有超預期表現,彰顯海外AI的強勁需求。參考彭博一致預期與業績會指引,中金研究預期2025年北美頭部四家雲廠商總資本開支(含融資租賃)有望達到3661億美元,同比增長47.4%;2026年資本開支規模有望在2025年的高基數上進一步增長,且未來上修的概率和空間較大。

國內CSP對於數據中心投資加碼的意願逐步明晰確立。阿里巴巴董事會主席蔡崇信在2025財年第三財季業績會中,表示未來三年公司將聚焦AI戰略,加大在雲計算基礎設施、AI基礎模型平臺和AI原生應用三大核心領域的投資力度,並表態未來三年公司在雲計算&AI基礎設施上的投入預計將超過過去十年之和(約3366億人民幣)。此外,字節跳動也逐步成長為國內AI硬件市場最頭部的客户之一。根據Omdia數據,2024年字節跳動在服務器採購上合計產生約80億美元的開支,位居中國需求第一。

散熱是數據中心的重要成本及能耗構成

數據中心的硬件設備可以分為IT硬件設備和基礎硬件設備。其中,IT硬件設備包括服務器、外置存儲和網絡設備等,實現數據中心數據存儲及處理功能;基礎硬件設備主要包括供配電系統、温控系統、弱電系統和其他配套設施,為數據中心的穩定運作提供支持。

散熱系作為IT設備正常運行的必要保障,嵌入數據中心全層面,為雲端算力基礎設施的重要構成從初始建設成本的角度看,包括精密空調、冷水機組在內的數據中心層面冷卻系統佔基礎硬件設施成本約15%;此外,CPU/GPU等芯片層面、服務器內部、機櫃層面均廣泛存在冷卻系統。從運營成本的角度看,根據艾瑞諮詢,電費約佔數據中心運營成本的57%;根據賽迪顧問,2019年中國數據中心主要設備能耗佔比中,製冷以約43%的比例位居第二,僅次於IT設備自身能耗佔比(約45%);冷卻系統作為數據中心的能耗大户,散熱效率提升對於數據中心運營成本改善至關重要。

圖表2:數據中心基礎硬件設施成本拆分

資料來源:艾瑞諮詢《中國數據中心行業報告(2020年)》,中金公司研究部

圖表3:數據中心能耗分佈

資料來源:國家互聯網數據中心產業技術創新戰略聯盟《綠色節能液冷數據中心白皮書(2023)》,賽迪顧問,中金公司研究部

根據冷卻介質的不同,數據中心的冷卻系統可以分為風冷與液冷。其中,風冷系統為傳統冷卻系統選擇,採用空氣作為換熱介質;液冷系統則使用工質水或氟化液作為換熱介質,利用液體的高熱容和高熱傳導特性,通過液體流動將IT設備的內部元器件產生的熱量傳遞到設備外,較風冷系統具備更高的散熱效率。本篇研究重點回答三個問題:1)風冷VS液冷的技術發展趨勢是什麼?2)液冷散熱的產業鏈是什麼樣的?3)服務器液冷散熱市場規模有多大?


液冷趨勢:乘AI算力需求東風,液冷迎發展機遇


AIGC催生算力新需求,液冷時代契機來臨

芯片及服務器功耗需求持續演繹,液冷生態加速形成

大算力需求推動芯片及服務器功率上行。芯片層面,以英偉達為代表的主流芯片廠商推出的芯片功耗快速提高,其中,GB300 Superchip最大TDP可達到1400W,而2017年推出的V100及2020年推出的A100最大TDP分別為300及400W。同時,國產AI芯片的功耗水平也逐步向300W甚至500W的水平提升。服務器層面,AI服務器通常採用CPU+GPU/ASIC等異構架構,使用大量高功率高性能芯片,整機功率大幅提升。以英偉達DGX B200服務器為例,其搭載8顆NVIDIA Blackwell GPU以更大限度地提高AI吞吐量,最大系統功耗可達到14.3kW,較通用服務器的功耗水平明顯提升。中金研究認為,在AI大模型的推動下,AI服務器需求有望維持高增,帶動算力功率密度提升。根據TrendForce,2024年AI服務器出貨量年增46%,預計2025年全球AI服務器規模將達到約210萬台,年增約24.5%,AI服務器出貨量佔服務器市場比重由2024年的13%進一步提升至15%。

圖表4:英偉達GPU的功耗水平逐步提升

資料來源:Fibermall,NVIDIA官網,中金公司研究部

單機櫃功率密度快速提升,對系統散熱能力提出更高的挑戰。中金研究按照標準機櫃(42U)放置4台DGX B200 AI服務器計算,對應單機櫃功率超過50kW。根據Vertiv預測,2029年單個AI GPU機櫃的功率將超過1MW,單個AI POD(假設單AIPOD為18臺機櫃,其中8台計算機櫃,10台通信機櫃)的功率將超過500kW,行業平均機櫃功率密度預計將從當前15~25kw提升至超50kW。

圖表5:功率密度演進

資料來源:Vertiv公司公告,中金公司研究部

高温環境影響芯片等電子元器件的使用壽命,服務器散熱系統具備高效能槓桿。高温環境會影響芯片等電子元器件的使用壽命,高温激發高能載流子會增大晶體管被擊穿短路的概率,同時,晶體管性能會隨着温度發生變化,高温可能導致部分電路由於性能改變無法正常工作,此外,高温提高電遷移影響導線工作壽命。根據NIISA發佈的《綠色節能液冷數據中心》,電容温度每升高10℃,平均電子元器件的壽命會降低一半,(10℃法則),約55%的電子元器件故障是温度導致的。中金研究認為,服務器液冷散熱系統具備高效能槓桿,以較低的成本佔比保障數據中心高價值AI芯片的可靠性,在芯片及服務器功耗走高的背景下,滲透率有望持續提升。

數據中心為能耗大户,液冷提升能源利用效率

AI數據中心拉動美國電力需求,電力供給彈性不足。根據美國電力研究協會,2023年至2030年美國數據中心行業用電量CAGR預計為3.7%-15%,較2023年用電量最高提升166%,佔美國電力的比例最高有望達到9.1%;同時,截至2023年底,美國數據中心約80%的用電負荷集中在15個州,可能導致部分州面臨更高的電力短缺風險。而美國本土電力格局分散且存在審覈周期長等問題,電源電網投資建設供給彈性不足。中金研究認為,在數據中心催化電力需求增長的背景下,提升數據中心能源利用率的重要性日益凸顯。

圖表6:美國數據中心行業用電量預測

注:假設非數據中心行業用電量每年以1%的速率增長資料來源:美國電力研究協會EPRI《Powering Intelligence:Analyzing Artificial Intelligence and Data Center Energy Consumption(2024)》,中金公司研究部

據中國信通院估算,2022年中國在用數據中心的用電量為766億千瓦時,預計十四五末將較2022年增長2-3倍,達到1,500-2,000億千瓦時,佔全社會用電量的1.5%-2%,並預計2030年接近4,000億千瓦時。在數據中心耗電量的大基數上,代表能源使用效率的PUE每下降0.1,均能帶來能源節約,代表數據中心能源效率的指標PUE成爲了監管重點。

► 國家層面,數據中心新能效國標劃定1.5的PUE上限。2021年《新型數據中心三年行動計劃(2021-2023)》指出「新建大型及以上數據中心PUE將降低到1.3以下」。按照2022年11月施行的新國標《數據中心能效限定值及能效等級》,最大能效3級要求數據中心PUE小於1.5,意味着PUE大於1.5的數據中心將不符合國家標準。

► 地方層面,東部對於數據中心能耗監管嚴格,兼以懲罰電價等調節手段。以北京為例,根據2023年施行的北京市《關於進一步加強數據中心項目節能審查的若干規定》,新建、擴建年能源消耗量大於3萬噸標準煤的項目,PUE值不應高於1.15;對於PUE在1.4到1.8之間的項目,每度電加價0.2元;對於PUE大於1.8的項目,每度電加價0.5元。

温控系統能耗降低,有助於數據中心PUE下降。根據中數智慧信息技術研究院《數據中心間接蒸發冷卻技術白皮書(2019)》,在PUE為1.92的數據中心能耗分佈中,温控系統能耗佔比為38%,為數據中心能耗大户。隨着國家對數據中心PUE降低要求趨嚴,温控系統能耗佔比下降的需求越來越高,採用更高散熱效率的液冷散熱方案成為大勢所趨。根據中興通訊發佈的《中興通訊液冷技術白皮書(2022年)》,液冷方案利用液體高導熱、高傳熱特性,進一步縮短傳熱路徑並利用自然冷源,能夠實現PUE小於1.25的節能效果。

液冷方案優勢出衆,替代風冷成為AI時代大勢所趨

散熱系統的作用是將服務器內部產生的熱量以及外界傳遞的熱量吸收併發散到機櫃之外,從而保證內部集成電路的正常温度,防止服務器部件受到高温損傷。主流散熱技術包含風冷和液冷兩大類方案。中金研究認為,液冷作為散熱效率更高的方式,憑藉提升算力部署密度及降低系統功耗的優勢,有望實現對傳統風冷的替代,伴隨AI算力規模增長實現高速增長。

從散熱能力來看,由於水密度高、單位體積熱容量大,其導熱能力遠超空氣。根據CSDN數據,水的熱導率是空氣的23倍以上,其可以吸收的熱量遠遠大於空氣,按單位體積計算約為3,243倍。根據《多樣化算力對服務器的散熱挑戰分析》一文分析,以2U通用服務器架構為例,風冷技術的傳熱量和熱流密度均小於液冷技術,以冷板式和浸沒式為代表的液冷技術在傳熱量和熱流密度方面相較風冷技術大幅提升,成為目前業界大力推廣的主流方向[1]。

圖表7:空氣和水散熱能力對比

資料來源:elefans,中金公司研究部

從部署密度來看,由於液冷散熱無需為風扇等預留大量空間,允許高密度部署計算單元,減少佔地面積,此外更緊湊的硬件佈局也有利於縮短計算單元之間的物理距離,降低信號傳輸延迟。根據《Vertiv數據中心液冷解決方案白皮書》,數據中心機架密度較小時,可以使用各種措施的風冷方式來實現散熱;但當單機架密度上升至20kW以上時,液冷優勢開始變得明顯。

圖表8:數據中心機架密度與冷卻方式

資料來源:Vertiv官網,中金公司研究部

從節能角度來看,液冷散熱通過液體直接吸收並帶走GPU等算力硬件產生的熱量,能夠降低非IT設備的能耗(風扇、空調),提升散熱效率從而降低總能耗,實現低於風冷數據中心的PUE。隨着數據中心PUE下降,每年可節省大量電費,能夠降低數據中心運行成本,以規模為2MW的機房為例,風冷方案冷卻能耗為1200kW,每年用電成本為841萬元,遠超液冷方案。得益於較低的能耗水平,液冷方案相較於風冷方案在TCO上具備優勢。根據Supermicro的測算,考慮8台8卡H100的情況,D2C(Direct to chip)液冷方案相較於風冷方案在TCO上具備明顯優勢。

液冷有助於服務器充分釋放性能,提升安全性和可靠性。相較於傳統風冷,液冷帶來更好的冷卻效果,尤其是對關鍵電子部件,比如CPU、GPU和內存。液冷可以降低部件和元器件的運行温度,收窄部件和元器件隨負載的温度變化幅度,從而避免設備局部熱點,使運行可靠性大幅提升。

圖表9:數據中心不同散熱方案對應PUE範圍

資料來源:《中興通訊液冷技術白皮書》(2022),中金公司研究部

圖表10:各散熱模式每年能耗及電費對比(2MW機房)

資料來源:《中興通訊液冷技術白皮書》(2022),中金公司研究部

圖表11:D2C液冷方案及風冷方案TCO測算

資料來源:Supermicro,中金公司研究部


產業鏈:冷板式液冷領跑,參與廠商百舸爭流


服務器液冷散熱之不同技術路徑分析

按服務器內部器件是否直接接觸冷卻液,液冷可分為間接接觸式和直接接觸式。間接接觸式包括冷板式液冷,直接接觸式包括噴淋式液冷、浸沒式液冷(相變浸沒式和單相浸沒式)。

冷板式液冷:裝有冷卻液流道的冷板貼附在服務器內部器件上進行散熱。冷卻液在冷板中特定流道內流動、與服務器內部器件間接接觸,流動過程中進行熱量交換帶走服務器部件產生的熱量,實現散熱效果。

► 散熱效果:冷板可直接貼附在芯片等服務器內器件上進行散熱,散熱效果較風冷明顯提升。

► 系統構成:主要由冷卻塔、CDU(Coolant Distribution Unit,冷量分配單元)、一次側&二次側液冷管路、冷卻介質、液冷機櫃組成;其中液冷機櫃內包含液冷板、設備內液冷管路、流體連接器、分液器等。

► 工作流程:一次側連接冷卻塔到冷量分配單元,為冷卻液循環系統,將冷卻后的冷卻液運輸到冷量分配單元供使用。二次側為冷量分配單元將冷卻液運輸到服務器內冷板中,對芯片等器件進行降温,使用后的冷卻液經流道流回冷量分配單元進行新的冷卻液替換。

► 現存問題:服務器內器件温度分佈不均勻,爲了滿足低發熱器件散熱,通常會與風冷結合;為避免流道堵塞、散熱效果不好等情況,流道設計和冷卻液選擇為關鍵。

圖表12:數據中心冷板式液冷散熱示意圖

資料來源:硅谷網,中國IDC圈,中金公司研究部

噴淋式液冷:置於服務器內部的噴淋式直接接觸式冷卻。冷卻液通過噴淋開關降落到服務器內部器件上,直接接觸與器件進行熱量交換完成散熱。

► 散熱效果:擴散式直接接觸服務器內器件,較為均勻地對服務器內部件進行直接散熱,散熱效果明顯優於風冷,弱於浸沒式液冷。

► 系統構成:主要由冷卻塔、CDU、一次側&二次側液冷管路、冷卻介質和噴淋式液冷機櫃組成;其中噴淋式液冷機櫃通常包含管路系統、布液系統、噴淋模塊、回液系統等。

► 工作流程:一次側為冷卻液循環系統,二次側為冷卻液對服務器進行散熱。噴淋設備位於服務器內部,從儲液器中獲取冷卻液,將冷卻液通過射流或噴霧等方式噴淋到服務器內器件上:1)射流冷卻:冷卻液從噴嘴中以流體形式高速噴射而出,於器件表面形成非常薄的速度邊界層和温度邊界層,進行對流換熱;2)噴霧冷卻:冷卻液經噴嘴霧化后以小液滴形式噴射而出,液滴通過相變吸收熱量進行散熱。吸收熱量的冷卻液通過管道回收進行循環。

► 現存問題:1)射流冷卻:如何平衡射流衝擊點和遠離衝擊點地方温度的均勻性、射流流速和噴嘴數量的均衡統一、噴嘴間的兼容性、電子器件的結構強度設計等均為當前對射流式冷卻發揮到良好效果的研究問題。2)噴霧冷卻:冷卻液相變時間過程、相變后對電子器件等的影響、噴嘴排列結構、所給泵的壓力等均為當前噴霧冷卻技術應用過程中需研究的問題。

浸沒式液冷:服務器組件與冷卻液直接接觸,通過相變(雙相浸沒式液冷)或非相變方式(單相浸沒式液冷),冷卻液將熱量從散熱元件帶出。浸沒式液冷散熱效果明顯,但對冷卻液的介質具有很高的要求,如腐蝕性、防火性、防爆性等,並對泵運送替換冷卻液等過程具有一系列規範等。因此,浸沒式液冷為一種技術難度很高、但散熱性能最優的液冷散熱方式。

► 散熱效果:與冷板式液冷、噴淋式液冷比較,浸沒式液冷散熱效果最好。

► 系統構成:包含冷卻塔、一次側管網、一次側冷卻液;室內側包含CDU、浸沒腔體、IT設備、二次側管網和二次側冷卻液。使用過程中IT設備完全浸沒在二次側冷卻液中,因此二次側循環冷卻液需要採用不導電液體,如礦物油、硅油、氟化液等。

► 工作流程IT設備浸沒於冷卻液中,冷卻液通過單相或相變模式+循環與電子設備完成換熱、達到散熱目的。兩相浸沒液冷的傳熱路徑與單相浸沒液冷基本一致,主要差異在於二次側冷卻液僅在浸沒腔體內部循環,浸沒腔體內部頂部為氣態區、底部為液態區,冷卻液吸熱氣化后與安裝在頂部的冷凝器發生換熱、冷凝為低温液態冷卻液,並在重力作用下回流至腔體底部。

► 現存問題:電子設備長時間浸沒是否會損壞,如何選取恰當的冷卻液,電子設備局部温度過高影響冷卻液正常循環,服務器排布以及后期運維等問題如何解決等均為當前浸沒式液冷能否更好地應用於下游客户日常運行當中要解決的主要問題。

圖表13:浸沒液冷架構示意圖

資料來源:OFweek,中金公司研究部

綜上,從工藝成熟度看,三種工藝中當前發展最成熟的為冷板式液冷,為當前液冷服務器中主流的技術方案,中金研究認為冷板式散熱有望在下游率先規模落地。

圖表14:三種液冷方式多維對比

資料來源:浙江聯通產業互聯網公司《液冷技術在數據中心的應用分析(2024)》,阿里雲《數據中心單相浸沒液冷規模化應用關鍵技術研究(2023)》,中興通訊《中興通訊液冷技術白皮書(2022)》,中國移動《冷板式液冷數據中心研究與應用(2024)》,中國移動設計院《液冷服務器在數據中心的應用研究(2024)》,中國建築標準設計研究院《淺談液冷技術在數據中心的應用(2021)》,趙立峰、唐先軍《數據中心液冷方式的介紹與比較(2021)》,ODCC《冷板液冷服務器設計白皮書(2023)》,中金公司研究部

產業鏈:中游加速液冷方案佈局,零部件廠商與系統方案商蓬勃發展

液冷產業鏈包括上游的產品零部件提供商、中游的液冷服務器和基礎設施提供商及下游的數據中心運營商和使用者。全球範圍內,目前液冷方案尚處推廣期,領先廠商通過豐富產品和應用案例,為未來液冷解決方案的進一步發展做好技術與方案儲備。

► 產業鏈上游:主要包括液冷板、冷量分配單元CDU、分液器Manifold、快接頭等。其中,液冷板是與芯片接觸實現換熱的核心部件;分液器完成冷卻液的分配與收集;快接頭連接節點冷板模組和液冷機櫃集分水器;CDU 隔離一、二次側迴路,並完成迴路間熱交換。主要參與者包括海外及台系零部件供應商Cooler master、CoolIT Systems、Vertiv、寶德BOYD、臺達Delta等,中國大陸代表性廠商有英維克、飛榮達、申菱環境、思泉新材、碩貝德、捷邦科技等。

► 產業鏈中游:主要為液冷服務器以及液冷解決方案商等。主要廠商包括1)Supermicro、廣達、DELL、HPE、工業富聯、浪潮信息、聯想、新華三、中興通訊、中科曙光、超聚變等服務器及ODM廠商,以及2)英維克、曙光數創、高瀾股份、申菱環境、Vertiv、CoolIT Systems等液冷解決方案商。

產業鏈下游:主要包括以雲廠商(CSP)為代表的互聯網廠商、三大通信運營商,中金研究認為,后續也有望向政府、金融、公用事業、服務業與製造業等場景滲透。

圖表15:冷板式液冷產業鏈拆分

資料來源:全球IT微洞察,TrendForce,各公司公告,各公司官網,中金公司研究部

英偉達推出GB200/GB300 NVL72,海外服務器廠商及台系ODM加速液冷布局。英偉達於2024年GTC大會發布初代Blackwell系列GPU,並推出機架級系統GB200 NVL72,開始採用液冷散熱方案,並於2025年GTC大會推出GB300 NVL72。在此背景下,海外服務器廠商及台系ODM加速液冷方案佈局。其中,Dell的PowerEdge系列支持液冷方案;HPE於24年10月推出100%無風扇直接液冷架構,液冷版ProLiant XD685服務器搭載8顆AMD Instinct MI355X或NVIDIA H200/Blackwell GPU;廣達則自研QoolRack系統,能夠支持GB200 NVL72的散熱管理;Supermicro推出DLC-2液冷系統,適配NVIDIA HGX B200/B300 GPU平臺,能夠減少40%用水量及數據中心40%能耗;工業富聯憑藉製造規模和垂直整合能力,能夠快速將NVIDIA最新的GPU與液冷技術結合並實現大規模量產。

中國液冷服務器市場,浪潮信息、超聚變、寧暢、新華三、聯想為核心廠商。根據IDC,2024年我國液冷服務器市場規模快速增長,全年市場規模達到23.7億美元,同比增長67.0%;出貨量突破23萬台;此外,預計2024-2029年我國液冷服務器市場規模的CAGR有望達到46.8%,2029年增長至162億美元;市場份額方面,2024年浪潮信息、超聚變、寧暢、新華三、聯想等廠商位居市場前列,前五大廠商約佔整體市場85%以上的份額;從方案類型來看,冷板式液冷方案因具備更優的散熱密度和PUE控制能力,正在成為智算中心的標配選擇,其中相變冷板式液冷等新技術得到應用。

中金研究看到,服務器廠商加速落地液冷方案,其中,浪潮信息發佈了浪潮瑤臺液冷冷源方艙,將PUE降至1.08以下,並能通過模塊化堆疊實現15MW級製冷量,還推出了液冷數據中心無環網解決方案,將部署周期縮短至數小時;超聚變推出FusionPoD系列整機櫃液冷服務器,可在一套硬件平臺基礎上實現多樣性算力應用;寧暢在產品與服務領域實現全面覆蓋,涵蓋風冷與液冷技術、服務器與基礎設施、芯片到數據中心的需求,支持多樣化配置與應用場景;新華三已發佈全系列G6液冷服務器和全系列液冷DC交換機,提供端到端液冷系統運行監控;聯想Neptune暖水液冷技術對關鍵部件100%全覆蓋液冷散熱設計。中金研究認為,液冷推升服務器價值量,服務器廠商有望受益於液冷服務器的蓬勃發展。

圖表16:2023-2029E我國液冷服務器市場規模

資料來源:IDC,中金公司研究部

圖表17:2024年我國液冷服務器市場格局情況

資料來源:IDC,中金公司研究部

Vertiv、CoolIT Systems、臺達等海外及台系廠商憑藉與英偉達的深度合作關係以及先發優勢,在當前的液冷供應鏈中佔據重要生態位。,Vertiv是英偉達合作伙伴網絡(NPN)中唯一「解決方案顧問:諮詢商」級別的大型物理基礎設施供應商,產品矩陣豐富,包括CDU、Manifold等;臺達Delta Electronics則為英偉達MGC平臺打造了散熱方案,1.5MW液對液(L2L)CDU獲得英偉達推薦供應商資格,且一站式集成電源與冷卻解決方案;CoolIT Systems專注於液冷技術,產品矩陣涵蓋冷板、CUD、Manifold等全套解決方案。此外,奇宏科技AVC、酷冷CoolerMaster、雙鴻Auras等廠商也均有佈局。

英維克、思泉新材、飛榮達、申菱環境、高瀾股份等國內廠商快速發展,部分廠商切入海外供應鏈。其中,英維克是國內專業液冷温控供應商中的領先企業,提供全鏈條液冷解決方案並實現自主研發與交付,UQD產品被列入英偉達的MGX生態系統合作伙伴;曙光數創為中科曙光的子公司,在浸沒式液冷中具備技術優勢並積極佈局冷板式液冷;申菱環境推出相變冷卻系統,提供全鏈條產品與服務;高瀾股份具備冷板式與浸沒式液冷綜合方案能力,並參與了噴淋式直接液冷技術的標準制定。此外,思泉新材、飛榮達、碩貝德、鴻騰精密、比亞迪電子、捷邦科技等在液冷散熱領域也均有佈局。

圖表18:國內液冷零部件及解決方案廠商佈局

資料來源:各公司公告,各公司官網,中金公司研究部

在交付模式上,液冷技術仍處於產業發展初期,產業標準未定,參與方多元,交付模式上包括一體化交付與解耦交付。在一體化交付的場景下,下游客户採購液冷服務器,由服務器廠商集成液冷設備一起交付;在解耦交付的場景下,下游客户分別採購服務器、液冷設備等硬件后整體集成。一體化交付形式存在非原廠機櫃與服務器不適配的潛在兼容性問題,但由於整機櫃由同一廠商交付,責任界面清晰;解耦交付的場景下,下游客户的選擇自由度更高,參與供應商的豐富有助於推動整體成本下降,但存在運維管理中責任不清等問題。

下游廠商積極參與冷板液冷標準制定,冷板液冷的技術標準、責任劃分標準和行業生態加速形成。下游廠商積極參與冷板液冷標準制定。2023年,三大運營商聯合發佈《電信運營商液冷技術白皮書》,推進形成液冷技術標準及規範,探索機櫃與服務器間接口的統一及標準化。2024年,秦淮數據聯合數十家行業頭部企業共同啟動編制《冷板液冷系統設計質量管控規範》《數據中心冷板液冷工質管控標準及檢測方法》《冷板液冷系統測試質量管控規範》《冷板液冷系統運維質量管控規範》四大液冷標準,為冷板液冷全生命周期各個環節的質量管控提供實踐指導。2024年,中國信通院牽頭三大運營商與華為、中興通訊等廠商制定《冷板式液冷整機櫃服務器技術要求和測試方法》,建立首個液冷整機櫃服務器領域的行業標準,於2025年2月1日起實施。

綜合而言,考慮到冷板式液冷技術仍處於行業發展初期,行業標準、技術規範等仍待完善,中金研究判斷兩種交付方式仍將共存。

圖表19:冷板式液冷交付方式對比

資料來源:中國移動,中國電信,中國聯通,《電信運營商液冷技術白皮書(2023)》中金公司研究部

市場空間測算:AI推動液冷在雲廠商加速滲透,2026年有望達86億美元規模

下游廠商加速推動液冷標準化,AI推動液冷在雲廠商加速滲透

海外雲廠商已經全面轉向或正在轉向液冷,其中部分廠商考慮到建設時間、水資源消耗等因素,採用風冷輔助液冷的方案作為過渡。中金研究認為,隨着各大廠商推進超級計算集羣的建設計劃,或將推動液冷需求大幅上升。

中國市場,互聯網廠商成為最重要的液冷需求方,電信運營商、金融、政府等行業積極引入液冷方案。根據IDC,中國液冷服務器的應用相對集中,主要為互聯網、電信運營商和政府行業,其中,互聯網大規模數據中心基於TCO優化及PUE指標管控的要求,率先實現液冷規模化部署;電信運營商則在智算基礎設施建設中,將液冷作為實現「雙碳」戰略目標的關鍵技術路徑;在政府端,以國家超算中心為代表的高性能計算集羣,基於其算力密度持續攀升帶來的散熱挑戰,形成顯著的示範效應;三大行業採購量佔到了整體市場90%左右,同時金融、服務、製造、公共事業等行業積極探索液冷解決方案。

圖表20:電信運營商液冷計劃三年規劃

資料來源:《電信運營商液冷技術白皮書(2023)》-中國移動、中國電信、中國聯通

市場空間測算:算力需求有望驅動2026年全球AI液冷市場規模達86億美元

中金研究綜合考慮英偉達、Google TPU、亞馬遜Trainium、MI300等AI芯片出貨量及單機櫃液冷價值量,測算得到2025、2026年全球AI服務器液冷市場規模達30.7/85.8億美元:

► 英偉達GPU對應液冷市場規模預測中金研究預計隨着英偉達GPU持續升級迭代及GB200 NVL72以及GB300 NVL73的應用,液冷滲透率有望持續提升,綜合液冷系統成本測算,中金研究預計2025年/2026年對應液冷市場規模分別為26.1億美元/73.4億美元。

► ASIC及其他GPU對應液冷市場規模測算:除通用GPU外,中金研究沿用此前報告《AI進化論》系列報告的假設,預計2025/2026年谷歌TPU出貨量有望達200/330萬顆;亞馬遜2025/2026年出貨量分別為155/220萬顆。此外,ASIC的功耗水平低於B200的單卡功耗,但新一代ASIC功耗逐步提升,預計液冷的滲透率逐步提升,2025年/2026年分別為10%/15%。

圖表21:AI液冷市場規模測算

注:此處單價僅考慮二次側價值量,包括冷板、CDU、Mniflod、UQD等資料來源:Wind,各公司公告,SemiAnalysis,NADDOD官網,HANSEN FLUID,electronic specifier,中金公司研究部

圖表22:GB200 NVL72液冷系統價值量測算

注:compute tray單價僅考慮液冷板及風扇的價值量資料來源:SemiAnalysis,NADDOD官網,HANSEN FLUID,electronic specifier,中金公司研究部


注:本文摘自中金研究於2025年8月20日已經發布的《AI進化論(14):液冷,引領服務器散熱新時代》,分析師:朱鏡榆 S0080523070002;温晗靜 S0080521070003;王梓琳  S0080523080005;何欣怡  S0080525080005;李詩雯  S0080521070008;江磊  S0080523070007;彭虎  S0080521020001;賈順鶴  S0080522060002;孟辭  S0080123100107

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。