昨晚的一份業績預告,讓液冷行業迎來“寒冬”。液冷龍頭【英維克】一季度利潤跌了八成,大跌預期,究竟是為什么?
其實,說白了就是三個原因:一是國內干液冷的廠家一下子冒出來太多,價格戰打得兇,毛利率被壓得厲害;二是公司為了搶訂單拼命擴產、提前備貨,費用先砸出去了,但收入還沒跟上,利潤自然難看;三是回款慢、壞賬計提也多。
總的來講,液冷這個賽道的邏輯沒壞,需求端的大方向沒問題,但行業從炒預期進入業績兌現期后,會迎來第一輪殘酷的優勝劣汰。燒錢擴張、搶份額的階段,利潤表難免失真;哪家能率先把海外大訂單兌現成真金白銀的營收和利潤,才是下一個階段的關鍵。
下面就來吃透【液冷】產業鏈4大核心部件!
01 產業鏈全景圖
![]()
02 【液冷】簡介
液冷,就是用液體代替空氣作為散熱介質,通過液體與服務器發熱部件進行熱交換,把熱量帶走,讓服務器維持在安全的工作溫度范圍內。液冷屬于底層溫控技術,與之相對的是傳統風冷:
![]()
液冷可以按照冷卻液和服務器的接觸方式,分為間接冷卻與直接冷卻兩大類。間接冷卻里最常見的是冷板式液冷,根據冷卻液是否發生相變,又可以分為單相冷板和兩相冷板。
直接冷卻主要包括浸沒式和噴淋式,其中浸沒式同樣按照介質是否相變,分為單相浸沒和相變浸沒。
據數據顯示,當前主流液冷方案中,冷板式占比達到 91%,浸沒式占 8%,噴淋式占 1%。
![]()
![]()
液冷在散熱效率、能耗成本、空間利用上優勢十分突出,相比傳統風冷更加高效、節能、經濟。
在能耗方面,液冷可以有效降低數據中心 PUE,減少散熱系統的電力消耗。以一個 10MW 規模的數據中心為例,如果將 PUE 從 1.5 降至 1.2,每年可節約用電 2628 萬千瓦時,按照 0.7 元 / 度的電價計算,每年可節省電費約 1840 萬元。
在設備使用壽命上,電子元器件的工作溫度每降低 10℃,壽命大約可延長一倍。采用液冷的服務器年均故障率約為 0.5%,遠低于風冷的 2%,維修成本可下降 75%。
在空間與綜合成本方面,液冷單機柜功率密度可達 50kW 以上,而傳統風冷機柜通常不超過 15kW。在提供同等算力的前提下,液冷可節省約 60% 的機房占地面積。
根據 Uptime Institute 研究,采用液冷的數據中心五年總擁有成本(TCO)比風冷低 18%-25%,在高密度算力場景下這一差距會更加明顯。
![]()
隨著 AIGC 技術快速發展,數據中心正向高密度算力方向升級。主流計算芯片功耗持續攀升,單位面積產生的熱量已接近風冷散熱的極限。若繼續沿用風冷方案,極易出現芯片局部過熱問題,提升硬件失效風險,液冷因此成為下一代數據中心的核心技術方向。
數據中心制冷技術逐漸向液冷發展
![]()
03 核心價值量拆解
目前,冷板式液冷憑借對現有數據中心良好的兼容性和較低的改造成本,在液冷市場占據主導地位。
相比之下,浸沒式液冷改造成本高昂、運維復雜,規模化推廣仍受較大限制;噴淋式液冷則技術成熟度較低,實際落地案例有限。
展望未來,隨著冷卻液成本下降和技術體系成熟,散熱優勢顯著的浸沒式液冷,有望在高算力場景中成為主流方向。其中,相變浸沒式液冷憑借更高的散熱效率,或將成為液冷技術的終極演進路徑。
在冷板式液冷的產業鏈中,上游核心高價值環節集中在四大部件:冷板、CDU(冷卻液分配單元)、Manifold(歧管)和快接頭(UQD)。
以英偉達 GB300 液冷機柜為例,冷板價值占比 41%,CDU 占比 32%,UQD 占比 14%,Manifold 占比 13%,這四項是產業鏈價值量最高的零部件。
![]()
這四大核心部件的平均毛利率在 25%-30% 以上,其中 CDU 和快接頭這類技術壁壘更高的環節,毛利率可達 40%-60%。
![]()
有興趣可進入星球,獲取更多資料
04 上游核心-液冷板
液冷板,是冷板式液冷系統里直接干活的核心部件。它直接貼在 GPU、CPU 這類高功耗芯片的表面,靠內部循環的冷卻液,把芯片產生的熱量直接高效地帶走,散熱效率遠高于傳統風冷。
液冷板的材料選擇,直接決定了它的導熱性能、重量、成本和加工難度,是上游環節的關鍵變量。位置處于如圖:
![]()
04-1、市場規模
全球冷板式液冷市場正處于高速增長期,未來十年的擴張勢頭非常明確。
2024 年,市場規模約 20 億美元;預計到 2034 年,規模將達到 250 億美元,十年間增長超過 10 倍。
這意味著,冷板式液冷技術將在數據中心、高性能計算、新能源等領域快速普及,市場需求持續走高,行業整體處于高速發展階段,增長潛力強勁。
![]()
04-2、材料對比
液冷板現在主要用三種材料:鋁、銅和新型復合材料。
鋁的優勢是輕、便宜、還不容易生銹,所以用得最多。
銅導熱能力比鋁強得多,但又貴又重,只在散熱要求特別高的高功率芯片上用。
但現在問題來了:芯片功耗越來越夸張,從現在的 1400W,很快就要沖到 2000W-4000W。就算是純銅冷板,也扛不住這么大的熱量,會出現中心區域 “熱量堆死” 的情況。這種問題,光靠把冷卻液流速加快,是解決不了的。
所以行業的出路,就是往復合材料升級。把金剛石、石墨烯、碳化硅這些導熱超強的材料,嵌進銅或鋁里,做出導熱能力更強的復合冷板,來應對未來超高功耗芯片的散熱壓力。
比如雙鴻科技,就計劃 2026 年先商用石墨烯銅,之后再推廣金剛石銅 / 鋁這類更高端的材料。
![]()
04-3、技術發展新方向
MLCP(微通道水冷板)是冷板的升級技術,它把傳統芯片上的金屬蓋和液冷板整合成了一個單元,冷卻液可以直接流到芯片表面散熱。
傳統冷板式液冷的傳熱,像過關卡一樣,層層受阻。熱量從芯片出來,要穿過硅襯底、金屬互連、多層導熱材料(TIM)、封裝蓋板,最后才到冷板,經過至少 4-5 層界面。每一層都會阻礙熱量傳遞,導致熱量堆積,形成局部熱點,這也是限制芯片輸出功率的核心瓶頸。
MLCP 方案則是直接打通了 “任督二脈”。它取消了獨立的散熱蓋和第二層導熱材料(TIM2),將路徑從 “四站式” 精簡為 “三站式”。熱量只需經過第一層導熱材料(TIM1),直接進入集成微通道的蓋板(MCL)被冷卻液帶走。這種設計從根源上消除了約 50% 以上的接觸熱阻,散熱效率實現質的飛躍。
![]()
MLCP它的核心優勢有兩點:
![]()
這種高性能冷板的單價是傳統冷板的 3-5 倍,毛利率也更高。以英偉達 GB300 機柜為例,一個機柜需要 108+18 塊 MLCP,單塊報價約 800-900 美元。
和它類似的還有微軟的微流體冷卻技術,把冷卻液通過發絲般細的微通道直接送到芯片內部,散熱效率是現有方案的 3 倍,能把芯片溫升降低 65%。
![]()
04-4、競爭格局
液冷板市場參與者眾多,目前主要由臺系企業(奇鋐、雙鴻、酷冷至尊)和歐美廠商(CoolIT Systems、Boyd Corporation)主導。
大陸的液冷板配套廠商,主要包括英維克、飛榮達、科創新源、中石科技、川環科技、同飛股份、思泉新材、立敏達等。
05 上游核心-CDU
CDU 是液冷數據中心的核心組件,相當于液冷系統的 “心臟” 和 “控制中樞”。它的核心任務,是把冷卻液安全、高效地分配到每個冷板和機柜,同時實現溫度控制、流量管理和系統保護。
CDU 內部,液冷泵組和換熱器是兩大關鍵部件:
泵組是系統的動力源,驅動冷卻液在服務器側的環路里循環流動。
換熱器則負責把冷卻液從服務器吸收的熱量,傳遞給機房側的冷卻水,完成熱量的 “接力” 與排出。
![]()
按照部署方式,CDU可以分為集中式和分布式,區別特點如下:
![]()
![]()
05-1、市場規模
根據 QYResearch 數據,2024 年全球數據中心 CDU 市場規模約為 9.7 億美元,預計 2025 年將增至 13.37 億美元,同比增長 37%;到 2031 年市場規模將達到 37 億美元,2025-2031 年的年均復合增長率(CAGR)為 18.5%,整體呈現高速增長態勢。
![]()
05-2、競爭格局
液冷 CDU 市場目前呈現出高度集中的頭部主導格局。
2025 年,維諦(Vertiv)占據最大市場份額,領先優勢明顯;CoolIT 緊隨其后,競爭力強勁;臺達和艾美達也占有一定份額,分別代表了傳統電源廠商與專業液冷解決方案提供商的布局。
其余企業合計占比較小,說明頭部廠商憑借技術積累和客戶資源形成了較高的行業壁壘。整體來看,液冷 CDU 市場正朝著專業化、規模化方向發展,頭部企業的先發優勢十分顯著。
![]()
05-3、國內的格局如下:
![]()
06 上游核心-快接頭(UQD)
UQD 快速接頭,就是液冷系統里的 “快插水管接頭”,專門用來接管路和冷板、歧管和機柜,一插就能連上,還能保證冷卻液快速、安全地流過去,不會漏。
![]()
它是英特爾主導的 OCP 標準里的核心部件,目標就是給液冷系統提供通用、不漏水的快速連接方案。
現在 AI 算力需求越來越大,GPU 功耗從 700W 直接干到 1000W 以上,傳統風冷根本壓不住溫度,液冷成了剛需,而 UQD 就是液冷里的關鍵一環,現在已經是數據中心熱管理的核心技術之一了。
![]()
06-1、分類
UQD 系列含 UQD02 至 UQD08 四種標準型號,公稱直徑和流量隨編號遞增,分別適配低功耗基礎液冷、數據中心服務器、高密度計算及大功率 GPU 集群與超算等高散熱場景,全系列均遵循 OCP 標準以保證互操作性,并提供 ORB 螺紋、BSPP 螺紋及推入式軟管連接等多種終端方案。
![]()
06-2、價值量
隨著數據中心機柜功率升級,液冷散熱模組對 UQD 的需求同步增長。以英偉達 GB200 NVL72 為例,其單臺液冷機柜含 18 個計算托盤,每托盤配 6 對 UQD,單機柜總計 108 對計算單元用 UQD。
GB300 因機柜功率提升,全鏈路散熱升級:GPU 冷板從 “雙卡共用” 改為 “單卡獨配”,單托盤冷板數量翻倍,UQD 用量同步升至每托盤 14 對,單機柜 18 個托盤對應 252 對 UQD。
測算顯示,機柜方案升級后,單機柜 UQD 價值量達 7.7 萬元,同比增幅 30%。
![]()
06-3、發展趨勢--盲插式UQD
盲插式 UQD 無需精準對準即可自動連接,容錯率更高且操作高效,適合空間緊湊、追求便捷的液冷場景;非盲插式 UQD 需精確對接,結構更簡單但依賴操作技能。
![]()
盲插式 UQD 無需人工干預,運維效率高、人為失誤少,適配高密度數據中心,可靠性更強;非盲插式需手動操作,對技術要求高,更適合成本敏感或低技術要求場景。隨著數據中心向智能化演進,以及 AI 對運維連續性的要求提升,盲插式 UQD 將成為主流選擇。
06-4、市場格局
UQD 液冷連接器市場目前由海外廠商主導,行業集中度較高,Staubli、Parker 等頭部企業憑借先發技術優勢占據全球及國內高端市場;國內廠商中航光電、英維克等起步晚但發展迅速,正依托國內需求紅利快速追趕。
![]()
07 上游核心-歧管(Manifold)
Manifold(歧管)就是數據中心液冷系統里的 “總分流管”,功能類似把一根水管分成多路噴頭的分配器,能把 CDU 送來的冷卻液精準分到每個服務器的冷板,靠精密流道設計減少壓力損失,讓每個支路流量均勻,避免服務器局部過熱。
![]()
07-1、制造工藝流程
Manifold 的制造門檻極高,涉及高精度加工、焊接和密封工藝,其性能直接決定液冷系統的散熱、能耗、可靠性和維護成本,核心指標看內部流道粗糙度和接口平面度。
內部流道越光滑(Ra 值越低),流體阻力和能耗越小,否則易積垢堵塞;接口平面度越高,連接密封越可靠,可避免泄漏風險。選材與加工工藝是核心壁壘,通常采用不銹鋼、銅合金等材料,經鉆孔、深孔加工、焊接釬焊等多道工序,每一步都直接影響最終產品的性能與壽命。
![]()
07-2、市場格局
當前,市場競爭激烈,平均毛利率 30%—35%,其中定制化歧管毛利率超 35%,標準化產品約 30%。
國際供應商以雙鴻、奇、臺達電子等臺灣廠商為主,大陸則有領益智造旗下立敏達,以及英維克、申菱環境、同飛股份等核心廠商。
![]()
下方掃碼直接加入:
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.