“吹风扇”“泡冷水” 为“发烧”的AI服务器降温
创始人
2026-02-27 09:48:20
0

当AI大模型参数从千亿级冲向万亿级,训练所需的算力集群功率密度也水涨船高,传统风冷散热逼近物理极限,数据中心的服务器正陷入一场无声的“烤验”。

散热,这个曾被行业忽视的“配角”,正演变为制约AI产业规模化发展的“天花板”。在AI服务器功耗飙升与能耗管控趋严的双重驱动下,液冷散热技术正快速成长为主流选择。高盛预测,全球服务器冷却市场2025—2027年将迎来爆发式增长,液冷渗透率将从2024年的15%跃升至2027年的80%。

在济南,浪潮通信信息系统有限公司(以下简称“浪潮通信”)的实验室里,液冷散热系统已经研发成熟,其技术成果去年落地北京某运营商数据机房改造项目,让单机柜功率从5千瓦跃升至45千瓦,年节电4468兆瓦时,相当于近1500个家庭一年的用电量。

这并非孤例。当风冷无法承载AI算力的散热需求,液冷这场关乎算力存续的“冷却革命”,将如何改写行业格局?

在AI服务器功耗飙升与能耗管控趋严的双重驱动下,液冷散热技术正快速成长为主流选择。图为浪潮通信液冷微模块。(赵亚伟供图)

给狂飙的算力“退烧”

这场冷却革命的“导火索”,是AI算力的爆发。

此前,服务器的降温逻辑相对简单,风冷技术如同给机房装上无数台“风扇”,依靠加速空气流动带走服务器表面的热量。风冷技术成本低、部署快,在单机柜功率低于10千瓦的时代游刃有余。

然而,数字化与AI浪潮迅速推高了功率密度。

“当功率密度被推至40千瓦以上,相当于把20台家用电暖器塞进一个冰箱大小的机柜同时烤火,产生的热量几分钟就能烧开一浴缸水。”浪潮通信副总经理郭振君指出,“在此量级的热量面前,仅靠风冷降温捉襟见肘,芯片会因过热而降频,性能大打折扣。”

不仅如此,当功率超过40千瓦,风冷不仅难以解决芯片局部热点问题,还会让PUE(能源使用效率)急剧攀升至1.3以上。这意味着,每消耗1度电用于核心计算,就需要额外消耗0.3度电用于散热,既无法适配当前高密算力的需求,也难以满足日益严格的节能管控要求。

政策层面也在持续加压。2024年7月,国家发展改革委等部门明确要求到2025年底,新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心项目PUE不得高于1.2。这一硬性约束,使得高能效散热方案成为市场竞争的“入场券”。

通俗来讲,液冷就是利用液体替代空气作为冷却介质,通过液体的循环流动将服务器产生的热量带走。与风冷相比,液冷系统的热交换效率提升3-5倍,能将数据中心PUE降至1.05,接近“理论极限值”。PUE数值越接近1,表明电能越集中用于计算设备本身,几乎把能耗都用在了刀刃上。

“液冷技术的崛起,本质是算力密度与能耗政策双重挤压下的必然选择。”郭振君表示,“在算力需求爆发初期,我们就意识到液冷必然成为破题关键。因此浪潮通信提前研发,构建了从冷板、浸没到风液同源的全系列技术体系,以应对市场上对冷却方案的爆发式增长需求。”

液冷如何为服务器降温

从北京某运营商数据机房的改造案例看,液冷就像是给“高烧不退”的AI服务器量身定制的“退烧药”,既高效又经济。但这场技术革新背后的路线博弈与落地难题,远比想象中复杂。

当前液冷技术主要分为冷板式和浸没式两大路线。

冷板式液冷就像给发热器件贴上“冰袋”,将液冷冷板固定在主要发热器件上,再通过密闭管道中循环的冷却液带走热量。其最大优势是无需改变服务器原有架构,适配性强、改造难度低,可快速落地应用。

浸没式液冷,则是把服务器泡进“恒温凉水池”,通过冷却液的对流或相变实现热量传递。这种方式的散热效率是风冷的1000倍以上,属于“直接接触散热”,专为超算、高端AI训练等超高功率场景而生。

郭振君介绍,浪潮通信的冷板式液冷方案PUE低于1.15,浸没式方案更是低至1.05,“冷板式是‘当前最优解’,适配80%以上的智算、通算升级场景;浸没式是‘未来终极解’,针对超算等极端高密场景。”

但无论选择哪条技术路线,都绕不开液冷系统的核心风险——泄漏与腐蚀。

冷却液在密闭管路中持续循环数年,对防腐防锈、化学稳定性和微生物控制提出极高要求。“若钝化工艺不达标,管网极易发生锈蚀。锈蚀产物与菌落堆积会堵塞流道,导致芯片局部升温异常,严重影响数据中心整体性能。”浪潮通信数据中心研发负责人李俊山说。

这也正是浪潮通信将水管连接、泄漏防控等细节视为研发重心的原因。2025年12月,“浪潮预制模块化弹性液冷智算中心”被中国职工技术协会认定为2025年度职工技术创新成果特等成果。

百亿级赛道,谁能踏浪而行

政策与效益双重驱动,液冷市场规模到底有多大?

李俊山认为,目前,风冷仍是主流,液冷市场占比接近20%,但因为AI爆发带动了高功率服务器需求,液冷增长势头迅猛,预计2030年市场份额将达到40%至50%。国际数据公司(IDC)等机构预测,到2028年,中国液冷服务器市场规模将突破102亿美元,年复合增长率超40%。

市场诱惑下,隐藏着不容忽视的问题:尽管液冷优势显著,但供应链完善、成本优化仍需时间,产业链成熟度、部署成本及运维的复杂性,仍制约着液冷技术的规模化落地。高盛预测,2027年风冷市场规模仍将维持24亿美元,不会彻底消失。

针对行业长期存在的“风液脱节”与“资源错配”难题,浪潮通信推出的“风液同源解决方案”给出了新的破题思路。传统风液同源架构多采用双环网设计——即一套低温供水管与一套高温回水管,风冷与液冷系统均从同一低温环网取水。然而,二者对水温的实际需求并不相同:风冷需要更低温的冷水才能保证换热效率,而液冷因自身高热容特性,仅需中温水即可满足散热要求。传统架构“一刀切”地供给低温水,实则是将高品位冷量用于低需求场景,造成“大材小用”的能效浪费。

浪潮通信以“分温支流环网”架构取代传统双环网。该设计通过3个独立环网,分别为风冷供应低温水、为液冷供应中温水,并共用一套高温回水网络,实现冷量的精准分级与梯次利用。系统可根据实际负载,在纯风冷、纯液冷及混合模式间无缝切换,犹如混合动力系统智能调配油电比例,灵活适应算力波动。

这一架构再搭配浪潮自主研发的AI智控平台,便构成了散热系统的“智慧大脑”。平台能够实时预测算力负载变化,自动调节供水温度与流量,实现制冷策略的动态优化。凭借此项集成创新,浪潮通信获2025年度中国IDC产业创新技术产品奖。

业界将2026年视为液冷规模化爆发的关键节点。这场冷却革命中,那些能破解核心痛点、适配多元场景的参与者,才能在这场算力时代的浪潮中踏浪前行。(陈晓婉 赵雅南)

相关内容

热门资讯

广州黄埔:8600亿经济底座上... 文|源媒汇,作者|谢春生,编辑|苏淮AI正成为传统制造业转型的核心引擎,而在广州东部的黄埔区,这场转...
全球前十开源模型均源自中国!千... 来源:环球网2月26日,全球最大AI开源社区HuggingFace公布新一期开源大模型榜单,阿里千问...
AI变革推动OCS新技术快速发... 来源:中国能源网国信证券近日发布数据中心互联技术专题:根据CignalAI的测算,2025年OCS市...
曝阿里内测潮玩AI平台“妙呀A... 【CNMO科技消息】2月27日,据《读佳》报道,阿里近期正低调启动潮玩AI平台“妙呀AI”的保密内测...
“吹风扇”“泡冷水” 为“发烧... 当AI大模型参数从千亿级冲向万亿级,训练所需的算力集群功率密度也水涨船高,传统风冷散热逼近物理极限,...
GEO乱象:谁为AI营销的泡沫... 作者|深响林之柏AI大战如火如荼。科技大厂大规模资源投入+大规模取消休假,让这个春节“AI味儿”十足...
万达电影:目前尚未投资或开发A... 有投资者在互动平台向万达电影提问:“你好,董秘,请问贵司在AI应用上可有投资或开发出AI与影视相关的...
OpenRouter:中国AI... IT之家2月27日消息,在线AI托管平台OpenRouter最新数据显示,由MiniMax、月之暗面...
谷歌与Meta达成数十亿美元A... 2月27日消息,据《TheInformation》周四报道,MetaPlatforms已签署一项价值...
英伟达营收再创新高 黄仁勋称A... ◎记者郑维汉窦世平2月25日美股盘后,英伟达公布了截至2026年1月25日的2026财年第四季度及2...