中金研究
AI大模型更新迭代以及应用落地驱动算力需求提升,芯片功耗与算力密度持续攀升,液冷凭借散热效率、部署密度等优势,正加速替代风冷逐步成为主流方案。我们预计2026年全球AI液冷市场规模有望达到86亿美元,实现市场规模的快速提升。
Abstract
摘要
芯片及服务器的功率密度提升,液冷替代风冷为AI时代大势所趋。AI芯片及服务器功率密度攀升,Vertiv预计至2029年,单个AI GPU机柜的功率将超1MW,单AI POD的功率将超500kW,对散热系统提出挑战,而当机架密度上升至20kW时,液冷散热的优势凸显。此外,在数据中心拉升电力需求、PUE成为监管重点的背景下,散热系统作为数据中心第二大能耗中心,散热效率提升成关键。我们认为,液冷凭借更高散热效率、提升算力部署密度及降低系统功耗的优势,有望实现对传统风冷的替代。
冷板式液冷领跑产业化,浸没式与喷淋式处于技术探索初期。按服务器内部器件是否直接接触冷却液,液冷可分为间接接触式(冷板式液冷)和直接接触式(浸没式液冷与喷淋式液冷)。其中,冷板式液冷系统中,冷板可直接贴附在芯片等服务器内器件上进行散热,与直接接触式液冷相比,对设备和机房基础设施改动较小,而散热效果较风冷明显提升,为当前发展最为成熟的液冷散热方案。我们认为冷板式液冷有望率先规模落地。
产业链百舸争流,市场空间广阔。产业链上游(冷板、CDU、快速接头等)、中游(服务器厂商、解决方案商)加速布局,下游云厂商率先规模化应用,英伟达GB200及GB300 NVL72加速产业生态形成,市场空间广阔。根据IDC,2024年我国液冷服务器市场规模同比增长67.0%达23.7亿美元,预计2024-2029年CAGR有望达46.8%;我们测算,2025/2026年全球AI服务器液冷市场规模有望达30.7亿美元/85.8亿美元。
风险
AI应用落地进展/液冷散热渗透率不及预期,新技术发展导致产业链变迁。
Text
正文
散热:云端算力基础设施的核心构成,散热需求旺盛
AI驱动云端算力基础设施需求旺盛
全球AI大模型持续迭代,商业化能力正不断增强。2022年以来,国内外众多厂商如OpenAI、Anthropic、谷歌、国内如MiniMax、DeepSeek、字节等,不断推出新模型或更新迭代现有模型,2025年上半年全球范围内主流厂商发布的大模型数量明显增加,且呈现出更为密集的发布节奏。此外,我们看到AI的商业化能力不断增强。根据The Information,OpenAI当前年化收入水平已达到120亿美元,相比2024年40亿美元的收入实现大幅增长;Anthropic年化收入超过40亿美元,较年初增长了四倍。头部大模型公司开始形成商业梯度,产品多维布局、面向下游的收费方式形成合理结构。以Anthropic为例,根据公司官网,Anthropic目前面向消费级个人用户、SMB/Teams和企业级/行业垂类用户有多种订阅套餐。
图表1:2022年以来AI模型更新时间线
资料来源:公司官网,中金公司研究部
随着AI模型训练及推理需求的持续增长,云端算力基础设施需求旺盛,全球头部的互联网云厂商及科技厂商加大资本开支。2Q25北美Top4云厂商(亚马逊、谷歌、微软、Meta)合计资本开支(含融资租赁)为958.4亿美元,同比增长66%、环比增长24%,超出我们和市场预期。根据公开业绩会,谷歌2025年资本开支指引从750亿美元上调至850亿美元,并指引2026年进一步增长;Meta上修FY2025资本开支指引至660-720亿美元(前值为640-720亿美元),并指引FY2026资本开支有望维持类似FY25的显著增长;微软预计1QFY26资本支出将超过300亿美元,持续加大对基础设施的投资力度;亚马逊预期FY25H2资本开支有望维持2QFY25的投资力度,四家北美云厂商2Q25单季度capex及对未来capex的指引均有超预期表现,彰显海外AI的强劲需求。参考彭博一致预期与业绩会指引,我们预期2025年北美头部四家云厂商总资本开支(含融资租赁)有望达到3661亿美元,同比增长47.4%;2026年资本开支规模有望在2025年的高基数上进一步增长,且未来上修的概率和空间较大。
国内CSP对于数据中心投资加码的意愿逐步明晰确立。阿里巴巴董事会主席蔡崇信在2025财年第三财季业绩会中,表示未来三年公司将聚焦AI战略,加大在云计算基础设施、AI基础模型平台和AI原生应用三大核心领域的投资力度,并表态未来三年公司在云计算&AI基础设施上的投入预计将超过过去十年之和(约3366亿人民币)。此外,字节跳动也逐步成长为国内AI硬件市场最头部的客户之一。根据Omdia数据,2024年字节跳动在服务器采购上合计产生约80亿美元的开支,位居中国需求第一。
散热是数据中心的重要成本及能耗构成
数据中心的硬件设备可以分为IT硬件设备和基础硬件设备。其中,IT硬件设备包括服务器、外置存储和网络设备等,实现数据中心数据存储及处理功能;基础硬件设备主要包括供配电系统、温控系统、弱电系统和其他配套设施,为数据中心的稳定运作提供支持。
散热系统作为IT设备正常运行的必要保障,嵌入数据中心全层面,为云端算力基础设施的重要构成。从初始建设成本的角度看,包括精密空调、冷水机组在内的数据中心层面冷却系统占基础硬件设施成本约15%;此外,CPU/GPU等芯片层面、服务器内部、机柜层面均广泛存在冷却系统。从运营成本的角度看,根据艾瑞咨询,电费约占数据中心运营成本的57%;根据赛迪顾问,2019年中国数据中心主要设备能耗占比中,制冷以约43%的比例位居第二,仅次于IT设备自身能耗占比(约45%);冷却系统作为数据中心的能耗大户,散热效率提升对于数据中心运营成本改善至关重要。
图表2:数据中心基础硬件设施成本拆分
资料来源:艾瑞咨询《中国数据中心行业报告(2020年)》,中金公司研究部
图表3:数据中心能耗分布
资料来源:国家互联网数据中心产业技术创新战略联盟《绿色节能液冷数据中心白皮书(2023)》,赛迪顾问,中金公司研究部
根据冷却介质的不同,数据中心的冷却系统可以分为风冷与液冷。其中,风冷系统为传统冷却系统选择,采用空气作为换热介质;液冷系统则使用工质水或氟化液作为换热介质,利用液体的高热容和高热传导特性,通过液体流动将IT设备的内部元器件产生的热量传递到设备外,较风冷系统具备更高的散热效率。本篇研究重点回答三个问题:1)风冷VS液冷的技术发展趋势是什么?2)液冷散热的产业链是什么样的?3)服务器液冷散热市场规模有多大?
液冷趋势:乘AI算力需求东风,液冷迎发展机遇
AIGC催生算力新需求,液冷时代契机来临
芯片及服务器功耗需求持续演绎,液冷生态加速形成
大算力需求推动芯片及服务器功率上行。芯片层面,以英伟达为代表的主流芯片厂商推出的芯片功耗快速提高,其中,GB300 Superchip最大TDP可达到1400W,而2017年推出的V100及2020年推出的A100最大TDP分别为300及400W。同时,国产AI芯片的功耗水平也逐步向300W甚至500W的水平提升。服务器层面,AI服务器通常采用CPU+GPU/ASIC等异构架构,使用大量高功率高性能芯片,整机功率大幅提升。以英伟达DGX B200服务器为例,其搭载8颗NVIDIA Blackwell GPU以更大限度地提高AI吞吐量,最大系统功耗可达到14.3kW,较通用服务器的功耗水平明显提升。我们认为,在AI大模型的推动下,AI服务器需求有望维持高增,带动算力功率密度提升。根据TrendForce,2024年AI服务器出货量年增46%,预计2025年全球AI服务器规模将达到约210万台,年增约24.5%,AI服务器出货量占服务器市场比重由2024年的13%进一步提升至15%。
图表4:英伟达GPU的功耗水平逐步提升
资料来源:Fibermall,NVIDIA官网,中金公司研究部
单机柜功率密度快速提升,对系统散热能力提出更高的挑战。我们按照标准机柜(42U)放置4台DGX B200 AI服务器计算,对应单机柜功率超过50kW。根据Vertiv预测,2029年单个AI GPU机柜的功率将超过1MW,单个AI POD(假设单AIPOD为18台机柜,其中8台计算机柜,10台通信机柜)的功率将超过500kW,行业平均机柜功率密度预计将从当前15~25kw提升至超50kW。
图表5:功率密度演进
资料来源:Vertiv公司公告,中金公司研究部
高温环境影响芯片等电子元器件的使用寿命,服务器散热系统具备高效能杠杆。高温环境会影响芯片等电子元器件的使用寿命,高温激发高能载流子会增大晶体管被击穿短路的概率,同时,晶体管性能会随着温度发生变化,高温可能导致部分电路由于性能改变无法正常工作,此外,高温提高电迁移影响导线工作寿命。根据NIISA发布的《绿色节能液冷数据中心》,电容温度每升高10℃,平均电子元器件的寿命会降低一半,(10℃法则),约55%的电子元器件故障是温度导致的。我们认为,服务器液冷散热系统具备高效能杠杆,以较低的成本占比保障数据中心高价值AI芯片的可靠性,在芯片及服务器功耗走高的背景下,渗透率有望持续提升。
数据中心为能耗大户,液冷提升能源利用效率
AI数据中心拉动美国电力需求,电力供给弹性不足。根据美国电力研究协会,2023年至2030年美国数据中心行业用电量CAGR预计为3.7%-15%,较2023年用电量最高提升166%,占美国电力的比例最高有望达到9.1%;同时,截至2023年底,美国数据中心约80%的用电负荷集中在15个州,可能导致部分州面临更高的电力短缺风险。而美国本土电力格局分散且存在审核周期长等问题,电源电网投资建设供给弹性不足。我们认为,在数据中心催化电力需求增长的背景下,提升数据中心能源利用率的重要性日益凸显。
图表6:美国数据中心行业用电量预测
注:假设非数据中心行业用电量每年以1%的速率增长
资料来源:美国电力研究协会EPRI《Powering Intelligence:Analyzing Artificial Intelligence and Data Center Energy Consumption(2024)》,中金公司研究部
据中国信通院估算,2022年中国在用数据中心的用电量为766亿千瓦时,预计十四五末将较2022年增长2-3倍,达到1,500-2,000亿千瓦时,占全社会用电量的1.5%-2%,并预计2030年接近4,000亿千瓦时。在数据中心耗电量的大基数上,代表能源使用效率的PUE每下降0.1,均能带来能源节约,代表数据中心能源效率的指标PUE成为了监管重点。
► 国家层面,数据中心新能效国标划定1.5的PUE上限。2021年《新型数据中心三年行动计划(2021-2023)》指出“新建大型及以上数据中心PUE将降低到1.3以下”。按照2022年11月施行的新国标《数据中心能效限定值及能效等级》,最大能效3级要求数据中心PUE小于1.5,意味着PUE大于1.5的数据中心将不符合国家标准。
► 地方层面,东部对于数据中心能耗监管严格,兼以惩罚电价等调节手段。以北京为例,根据2023年施行的北京市《关于进一步加强数据中心项目节能审查的若干规定》,新建、扩建年能源消耗量大于3万吨标准煤的项目,PUE值不应高于1.15;对于PUE在1.4到1.8之间的项目,每度电加价0.2元;对于PUE大于1.8的项目,每度电加价0.5元。
温控系统能耗降低,有助于数据中心PUE下降。根据中数智慧信息技术研究院《数据中心间接蒸发冷却技术白皮书(2019)》,在PUE为1.92的数据中心能耗分布中,温控系统能耗占比为38%,为数据中心能耗大户。随着国家对数据中心PUE降低要求趋严,温控系统能耗占比下降的需求越来越高,采用更高散热效率的液冷散热方案成为大势所趋。根据中兴通讯发布的《中兴通讯液冷技术白皮书(2022年)》,液冷方案利用液体高导热、高传热特性,进一步缩短传热路径并利用自然冷源,能够实现PUE小于1.25的节能效果。
液冷方案优势出众,替代风冷成为AI时代大势所趋
散热系统的作用是将服务器内部产生的热量以及外界传递的热量吸收并发散到机柜之外,从而保证内部集成电路的正常温度,防止服务器部件受到高温损伤。主流散热技术包含风冷和液冷两大类方案。我们认为,液冷作为散热效率更高的方式,凭借提升算力部署密度及降低系统功耗的优势,有望实现对传统风冷的替代,伴随AI算力规模增长实现高速增长。
从散热能力来看,由于水密度高、单位体积热容量大,其导热能力远超空气。根据CSDN数据,水的热导率是空气的23倍以上,其可以吸收的热量远远大于空气,按单位体积计算约为3,243倍。根据《多样化算力对服务器的散热挑战分析》一文分析,以2U通用服务器架构为例,风冷技术的传热量和热流密度均小于液冷技术,以冷板式和浸没式为代表的液冷技术在传热量和热流密度方面相较风冷技术大幅提升,成为目前业界大力推广的主流方向[1]。
图表7:空气和水散热能力对比
资料来源:elefans,中金公司研究部
从部署密度来看,由于液冷散热无需为风扇等预留大量空间,允许高密度部署计算单元,减少占地面积,此外更紧凑的硬件布局也有利于缩短计算单元之间的物理距离,降低信号传输延迟。根据《Vertiv数据中心液冷解决方案白皮书》,数据中心机架密度较小时,可以使用各种措施的风冷方式来实现散热;但当单机架密度上升至20kW以上时,液冷优势开始变得明显。
图表8:数据中心机架密度与冷却方式
资料来源:Vertiv官网,中金公司研究部
从节能角度来看,液冷散热通过液体直接吸收并带走GPU等算力硬件产生的热量,能够降低非IT设备的能耗(风扇、空调),提升散热效率从而降低总能耗,实现低于风冷数据中心的PUE。随着数据中心PUE下降,每年可节省大量电费,能够降低数据中心运行成本,以规模为2MW的机房为例,风冷方案冷却能耗为1200kW,每年用电成本为841万元,远超液冷方案。得益于较低的能耗水平,液冷方案相较于风冷方案在TCO上具备优势。根据Supermicro的测算,考虑8台8卡H100的情况,D2C(Direct to chip)液冷方案相较于风冷方案在TCO上具备明显优势。
液冷有助于服务器充分释放性能,提升安全性和可靠性。相较于传统风冷,液冷带来更好的冷却效果,尤其是对关键电子部件,比如CPU、GPU和内存。液冷可以降低部件和元器件的运行温度,收窄部件和元器件随负载的温度变化幅度,从而避免设备局部热点,使运行可靠性大幅提升。
图表9:数据中心不同散热方案对应PUE范围
资料来源:《中兴通讯液冷技术白皮书》(2022),中金公司研究部
图表10:各散热模式每年能耗及电费对比(2MW机房)
资料来源:《中兴通讯液冷技术白皮书》(2022),中金公司研究部
图表11:D2C液冷方案及风冷方案TCO测算
资料来源:Supermicro,中金公司研究部
产业链:冷板式液冷领跑,参与厂商百舸争流
服务器液冷散热之不同技术路径分析
按服务器内部器件是否直接接触冷却液,液冷可分为间接接触式和直接接触式。间接接触式包括冷板式液冷,直接接触式包括喷淋式液冷、浸没式液冷(相变浸没式和单相浸没式)。
冷板式液冷:装有冷却液流道的冷板贴附在服务器内部器件上进行散热。冷却液在冷板中特定流道内流动、与服务器内部器件间接接触,流动过程中进行热量交换带走服务器部件产生的热量,实现散热效果。
► 散热效果:冷板可直接贴附在芯片等服务器内器件上进行散热,散热效果较风冷明显提升。
► 系统构成:主要由冷却塔、CDU(Coolant Distribution Unit,冷量分配单元)、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成;其中液冷机柜内包含液冷板、设备内液冷管路、流体连接器、分液器等。
► 工作流程:一次侧连接冷却塔到冷量分配单元,为冷却液循环系统,将冷却后的冷却液运输到冷量分配单元供使用。二次侧为冷量分配单元将冷却液运输到服务器内冷板中,对芯片等器件进行降温,使用后的冷却液经流道流回冷量分配单元进行新的冷却液替换。
► 现存问题:服务器内器件温度分布不均匀,为了满足低发热器件散热,通常会与风冷结合;为避免流道堵塞、散热效果不好等情况,流道设计和冷却液选择为关键。
图表12:数据中心冷板式液冷散热示意图
资料来源:硅谷网,中国IDC圈,中金公司研究部
喷淋式液冷:置于服务器内部的喷淋式直接接触式冷却。冷却液通过喷淋开关降落到服务器内部器件上,直接接触与器件进行热量交换完成散热。
► 散热效果:扩散式直接接触服务器内器件,较为均匀地对服务器内部件进行直接散热,散热效果明显优于风冷,弱于浸没式液冷。
► 系统构成:主要由冷却塔、CDU、一次侧&二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。
► 工作流程:一次侧为冷却液循环系统,二次侧为冷却液对服务器进行散热。喷淋设备位于服务器内部,从储液器中获取冷却液,将冷却液通过射流或喷雾等方式喷淋到服务器内器件上:1)射流冷却:冷却液从喷嘴中以流体形式高速喷射而出,于器件表面形成非常薄的速度边界层和温度边界层,进行对流换热;2)喷雾冷却:冷却液经喷嘴雾化后以小液滴形式喷射而出,液滴通过相变吸收热量进行散热。吸收热量的冷却液通过管道回收进行循环。
► 现存问题:1)射流冷却:如何平衡射流冲击点和远离冲击点地方温度的均匀性、射流流速和喷嘴数量的均衡统一、喷嘴间的兼容性、电子器件的结构强度设计等均为当前对射流式冷却发挥到良好效果的研究问题。2)喷雾冷却:冷却液相变时间过程、相变后对电子器件等的影响、喷嘴排列结构、所给泵的压力等均为当前喷雾冷却技术应用过程中需研究的问题。
浸没式液冷:服务器组件与冷却液直接接触,通过相变(双相浸没式液冷)或非相变方式(单相浸没式液冷),冷却液将热量从散热元件带出。浸没式液冷散热效果明显,但对冷却液的介质具有很高的要求,如腐蚀性、防火性、防爆性等,并对泵运送替换冷却液等过程具有一系列规范等。因此,浸没式液冷为一种技术难度很高、但散热性能最优的液冷散热方式。
► 散热效果:与冷板式液冷、喷淋式液冷比较,浸没式液冷散热效果最好。
► 系统构成:包含冷却塔、一次侧管网、一次侧冷却液;室内侧包含CDU、浸没腔体、IT设备、二次侧管网和二次侧冷却液。使用过程中IT设备完全浸没在二次侧冷却液中,因此二次侧循环冷却液需要采用不导电液体,如矿物油、硅油、氟化液等。
► 工作流程:IT设备浸没于冷却液中,冷却液通过单相或相变模式+循环与电子设备完成换热、达到散热目的。两相浸没液冷的传热路径与单相浸没液冷基本一致,主要差异在于二次侧冷却液仅在浸没腔体内部循环,浸没腔体内部顶部为气态区、底部为液态区,冷却液吸热气化后与安装在顶部的冷凝器发生换热、冷凝为低温液态冷却液,并在重力作用下回流至腔体底部。
► 现存问题:电子设备长时间浸没是否会损坏,如何选取恰当的冷却液,电子设备局部温度过高影响冷却液正常循环,服务器排布以及后期运维等问题如何解决等均为当前浸没式液冷能否更好地应用于下游客户日常运行当中要解决的主要问题。
图表13:浸没液冷架构示意图
资料来源:OFweek,中金公司研究部
综上,从工艺成熟度看,三种工艺中当前发展最成熟的为冷板式液冷,为当前液冷服务器中主流的技术方案,我们认为冷板式散热有望在下游率先规模落地。
图表14:三种液冷方式多维对比
资料来源:浙江联通产业互联网公司《液冷技术在数据中心的应用分析(2024)》,阿里云《数据中心单相浸没液冷规模化应用关键技术研究(2023)》,中兴通讯《中兴通讯液冷技术白皮书(2022)》,中国移动《冷板式液冷数据中心研究与应用(2024)》,中国移动设计院《液冷服务器在数据中心的应用研究(2024)》,中国建筑标准设计研究院《浅谈液冷技术在数据中心的应用(2021)》,赵立峰、唐先军《数据中心液冷方式的介绍与比较(2021)》,ODCC《冷板液冷服务器设计白皮书(2023)》,中金公司研究部
产业链:中游加速液冷方案布局,零部件厂商与系统方案商蓬勃发展
液冷产业链包括上游的产品零部件提供商、中游的液冷服务器和基础设施提供商及下游的数据中心运营商和使用者。全球范围内,目前液冷方案尚处推广期,领先厂商通过丰富产品和应用案例,为未来液冷解决方案的进一步发展做好技术与方案储备。
► 产业链上游:主要包括液冷板、冷量分配单元CDU、分液器Manifold、快接头等。其中,液冷板是与芯片接触实现换热的核心部件;分液器完成冷却液的分配与收集;快接头连接节点冷板模组和液冷机柜集分水器;CDU 隔离一、二次侧回路,并完成回路间热交换。主要参与者包括海外及台系零部件供应商Cooler master、CoolIT Systems、Vertiv、宝德BOYD、台达Delta等,中国大陆代表性厂商有英维克、飞荣达、申菱环境、思泉新材、硕贝德、捷邦科技等。
► 产业链中游:主要为液冷服务器以及液冷解决方案商等。主要厂商包括1)Supermicro、广达、DELL、HPE、工业富联、浪潮信息、联想、新华三、中兴通讯、中科曙光、超聚变等服务器及ODM厂商,以及2)英维克、曙光数创、高澜股份、申菱环境、Vertiv、CoolIT Systems等液冷解决方案商。
►产业链下游:主要包括以云厂商(CSP)为代表的互联网厂商、三大通信运营商,我们认为,后续也有望向政府、金融、公用事业、服务业与制造业等场景渗透。
图表15:冷板式液冷产业链拆分
资料来源:全球IT微洞察,TrendForce,各公司公告,各公司官网,中金公司研究部
英伟达推出GB200/GB300 NVL72,海外服务器厂商及台系ODM加速液冷布局。英伟达于2024年GTC大会发布初代Blackwell系列GPU,并推出机架级系统GB200 NVL72,开始采用液冷散热方案,并于2025年GTC大会推出GB300 NVL72。在此背景下,海外服务器厂商及台系ODM加速液冷方案布局。其中,Dell的PowerEdge系列支持液冷方案;HPE于24年10月推出100%无风扇直接液冷架构,液冷版ProLiant XD685服务器搭载8颗AMD Instinct MI355X或NVIDIA H200/Blackwell GPU;广达则自研QoolRack系统,能够支持GB200 NVL72的散热管理;Supermicro推出DLC-2液冷系统,适配NVIDIA HGX B200/B300 GPU平台,能够减少40%用水量及数据中心40%能耗;工业富联凭借制造规模和垂直整合能力,能够快速将NVIDIA最新的GPU与液冷技术结合并实现大规模量产。
中国液冷服务器市场,浪潮信息、超聚变、宁畅、新华三、联想为核心厂商。根据IDC,2024年我国液冷服务器市场规模快速增长,全年市场规模达到23.7亿美元,同比增长67.0%;出货量突破23万台;此外,预计2024-2029年我国液冷服务器市场规模的CAGR有望达到46.8%,2029年增长至162亿美元;市场份额方面,2024年浪潮信息、超聚变、宁畅、新华三、联想等厂商位居市场前列,前五大厂商约占整体市场85%以上的份额;从方案类型来看,冷板式液冷方案因具备更优的散热密度和PUE控制能力,正在成为智算中心的标配选择,其中相变冷板式液冷等新技术得到应用。
我们看到,服务器厂商加速落地液冷方案,其中,浪潮信息发布了浪潮瑶台液冷冷源方舱,将PUE降至1.08以下,并能通过模块化堆叠实现15MW级制冷量,还推出了液冷数据中心无环网解决方案,将部署周期缩短至数小时;超聚变推出FusionPoD系列整机柜液冷服务器,可在一套硬件平台基础上实现多样性算力应用;宁畅在产品与服务领域实现全面覆盖,涵盖风冷与液冷技术、服务器与基础设施、芯片到数据中心的需求,支持多样化配置与应用场景;新华三已发布全系列G6液冷服务器和全系列液冷DC交换机,提供端到端液冷系统运行监控;联想Neptune暖水液冷技术对关键部件100%全覆盖液冷散热设计。我们认为,液冷推升服务器价值量,服务器厂商有望受益于液冷服务器的蓬勃发展。
图表16:2023-2029E我国液冷服务器市场规模
资料来源:IDC,中金公司研究部
图表17:2024年我国液冷服务器市场格局情况
资料来源:IDC,中金公司研究部
Vertiv、CoolIT Systems、台达等海外及台系厂商凭借与英伟达的深度合作关系以及先发优势,在当前的液冷供应链中占据重要生态位。其中,Vertiv是英伟达合作伙伴网络(NPN)中唯一“解决方案顾问:咨询商”级别的大型物理基础设施供应商,产品矩阵丰富,包括CDU、Manifold等;台达Delta Electronics则为英伟达MGC平台打造了散热方案,1.5MW液对液(L2L)CDU获得英伟达推荐供应商资格,且一站式集成电源与冷却解决方案;CoolIT Systems专注于液冷技术,产品矩阵涵盖冷板、CUD、Manifold等全套解决方案。此外,奇宏科技AVC、酷冷CoolerMaster、双鸿Auras等厂商也均有布局。
英维克、思泉新材、飞荣达、申菱环境、高澜股份等国内厂商快速发展,部分厂商切入海外供应链。其中,英维克是国内专业液冷温控供应商中的领先企业,提供全链条液冷解决方案并实现自主研发与交付,UQD产品被列入英伟达的MGX生态系统合作伙伴;曙光数创为中科曙光的子公司,在浸没式液冷中具备技术优势并积极布局冷板式液冷;申菱环境推出相变冷却系统,提供全链条产品与服务;高澜股份具备冷板式与浸没式液冷综合方案能力,并参与了喷淋式直接液冷技术的标准制定。此外,思泉新材、飞荣达、硕贝德、鸿腾精密、比亚迪电子、捷邦科技等在液冷散热领域也均有布局。
图表18:国内液冷零部件及解决方案厂商布局
资料来源:各公司公告,各公司官网,中金公司研究部
在交付模式上,液冷技术仍处于产业发展初期,产业标准未定,参与方多元,交付模式上包括一体化交付与解耦交付。在一体化交付的场景下,下游客户采购液冷服务器,由服务器厂商集成液冷设备一起交付;在解耦交付的场景下,下游客户分别采购服务器、液冷设备等硬件后整体集成。一体化交付形式存在非原厂机柜与服务器不适配的潜在兼容性问题,但由于整机柜由同一厂商交付,责任界面清晰;解耦交付的场景下,下游客户的选择自由度更高,参与供应商的丰富有助于推动整体成本下降,但存在运维管理中责任不清等问题。
下游厂商积极参与冷板液冷标准制定,冷板液冷的技术标准、责任划分标准和行业生态加速形成。下游厂商积极参与冷板液冷标准制定。2023年,三大运营商联合发布《电信运营商液冷技术白皮书》,推进形成液冷技术标准及规范,探索机柜与服务器间接口的统一及标准化。2024年,秦淮数据联合数十家行业头部企业共同启动编制《冷板液冷系统设计质量管控规范》《数据中心冷板液冷工质管控标准及检测方法》《冷板液冷系统测试质量管控规范》《冷板液冷系统运维质量管控规范》四大液冷标准,为冷板液冷全生命周期各个环节的质量管控提供实践指导。2024年,中国信通院牵头三大运营商与华为、中兴通讯等厂商制定《冷板式液冷整机柜服务器技术要求和测试方法》,建立首个液冷整机柜服务器领域的行业标准,于2025年2月1日起实施。
综合而言,考虑到冷板式液冷技术仍处于行业发展初期,行业标准、技术规范等仍待完善,我们判断两种交付方式仍将共存。
图表19:冷板式液冷交付方式对比
资料来源:中国移动,中国电信,中国联通,《电信运营商液冷技术白皮书(2023)》中金公司研究部
市场空间测算:AI推动液冷在云厂商加速渗透,2026年有望达86亿美元规模
下游厂商加速推动液冷标准化,AI推动液冷在云厂商加速渗透
海外云厂商已经全面转向或正在转向液冷,其中部分厂商考虑到建设时间、水资源消耗等因素,采用风冷辅助液冷的方案作为过渡。我们认为,随着各大厂商推进超级计算集群的建设计划,或将推动液冷需求大幅上升。
中国市场,互联网厂商成为最重要的液冷需求方,电信运营商、金融、政府等行业积极引入液冷方案。根据IDC,中国液冷服务器的应用相对集中,主要为互联网、电信运营商和政府行业,其中,互联网大规模数据中心基于TCO优化及PUE指标管控的要求,率先实现液冷规模化部署;电信运营商则在智算基础设施建设中,将液冷作为实现“双碳”战略目标的关键技术路径;在政府端,以国家超算中心为代表的高性能计算集群,基于其算力密度持续攀升带来的散热挑战,形成显著的示范效应;三大行业采购量占到了整体市场90%左右,同时金融、服务、制造、公共事业等行业积极探索液冷解决方案。
图表20:电信运营商液冷计划三年规划
资料来源:《电信运营商液冷技术白皮书(2023)》-中国移动、中国电信、中国联通
市场空间测算:算力需求有望驱动2026年全球AI液冷市场规模达86亿美元
我们综合考虑英伟达、Google TPU、亚马逊Trainium、MI300等AI芯片出货量及单机柜液冷价值量,测算得到2025、2026年全球AI服务器液冷市场规模达30.7/85.8亿美元:
► 英伟达GPU对应液冷市场规模预测:我们预计随着英伟达GPU持续升级迭代及GB200 NVL72以及GB300 NVL73的应用,液冷渗透率有望持续提升,综合液冷系统成本测算,我们预计2025年/2026年对应液冷市场规模分别为26.1亿美元/73.4亿美元。
► ASIC及其他GPU对应液冷市场规模测算:除通用GPU外,我们沿用此前报告《AI进化论》系列报告的假设,预计2025/2026年谷歌TPU出货量有望达200/330万颗;亚马逊2025/2026年出货量分别为155/220万颗。此外,ASIC的功耗水平低于B200的单卡功耗,但新一代ASIC功耗逐步提升,预计液冷的渗透率逐步提升,2025年/2026年分别为10%/15%。
图表21:AI液冷市场规模测算
注:此处单价仅考虑二次侧价值量,包括冷板、CDU、Mniflod、UQD等
资料来源:Wind,各公司公告,SemiAnalysis,NADDOD官网,HANSEN FLUID,electronic specifier,中金公司研究部
图表22:GB200 NVL72液冷系统价值量测算
注:compute tray单价仅考虑液冷板及风扇的价值量
资料来源:SemiAnalysis,NADDOD官网,HANSEN FLUID,electronic specifier,中金公司研究部
[1] 李建, 阮迪 . 多样化算力对服务器的散热挑战分析[J]. 信息通信技术与政策, 2024,50(2): 46-54
Source
文章来源
本文摘自:2025年8月20日已经发布的《AI进化论(14):液冷,引领服务器散热新时代》
分析员 朱镜榆 SAC 执证编号:S0080523070002
分析员 温晗静 SAC 执证编号:S0080521070003 SFC CE Ref:BSJ666
分析员 王梓琳 SAC 执证编号:S0080523080005
分析员 何欣怡 SAC 执证编号:S0080525080005
分析员 李诗雯 SAC 执证编号:S0080521070008 SFC CE Ref:BRG963
分析员 江磊 SAC 执证编号:S0080523070007 SFC CE Ref:BTT278
分析员 彭虎 SAC 执证编号:S0080521020001 SFC CE Ref:BRE806
分析员 贾顺鹤 SAC 执证编号:S0080522060002
联系人 孟辞 SAC 执证编号:S0080123100107
Legal Disclaimer
法律声明
特别提示
本公众号不是中国国际金融股份有限公司(下称“中金公司”)研究报告的发布平台。本公众号只是转发中金公司已发布研究报告的部分观点,订阅者若使用本公众号所载资料,有可能会因缺乏对完整报告的了解或缺乏相关的解读而对资料中的关键假设、评级、目标价等内容产生理解上的歧义。订阅者如使用本资料,须寻求专业投资顾问的指导及解读。
本公众号所载信息、意见不构成所述证券或金融工具买卖的出价或征价,评级、目标价、估值、盈利预测等分析判断亦不构成对具体证券或金融工具在具体价位、具体时点、具体市场表现的投资建议。该等信息、意见在任何时候均不构成对任何人的具有针对性的、指导具体投资的操作意见,订阅者应当对本公众号中的信息和意见进行评估,根据自身情况自主做出投资决策并自行承担投资风险。
中金公司对本公众号所载资料的准确性、可靠性、时效性及完整性不作任何明示或暗示的保证。对依据或者使用本公众号所载资料所造成的任何后果,中金公司及/或其关联人员均不承担任何形式的责任。
本公众号仅面向中金公司中国内地客户,任何不符合前述条件的订阅者,敬请订阅前自行评估接收订阅内容的适当性。订阅本公众号不构成任何合同或承诺的基础,中金公司不因任何单纯订阅本公众号的行为而将订阅人视为中金公司的客户。
一般声明
本公众号仅是转发中金公司已发布报告的部分观点,所载盈利预测、目标价格、评级、估值等观点的给予是基于一系列的假设和前提条件,订阅者只有在了解相关报告中的全部信息基础上,才可能对相关观点形成比较全面的认识。如欲了解完整观点,应参见中金研究网站(http://research.cicc.com)所载完整报告。
本资料较之中金公司正式发布的报告存在延时转发的情况,并有可能因报告发布日之后的情势或其他因素的变更而不再准确或失效。本资料所载意见、评估及预测仅为报告出具日的观点和判断。该等意见、评估及预测无需通知即可随时更改。证券或金融工具的价格或价值走势可能受各种因素影响,过往的表现不应作为日后表现的预示和担保。在不同时期,中金公司可能会发出与本资料所载意见、评估及预测不一致的研究报告。中金公司的销售人员、交易人员以及其他专业人士可能会依据不同假设和标准、采用不同的分析方法而口头或书面发表与本资料意见不一致的市场评论和/或交易观点。
在法律许可的情况下,中金公司可能与本资料中提及公司正在建立或争取建立业务关系或服务关系。因此,订阅者应当考虑到中金公司及/或其相关人员可能存在影响本资料观点客观性的潜在利益冲突。与本资料相关的披露信息请访http://research.cicc.com/disclosure_cn,亦可参见近期已发布的关于相关公司的具体研究报告。
本订阅号是由中金公司研究部建立并维护的官方订阅号。本订阅号中所有资料的版权均为中金公司所有,未经书面许可任何机构和个人不得以任何形式转发、转载、翻版、复制、刊登、发表、修改、仿制或引用本订阅号中的内容。