新闻中心

联系我们

了解更多详细信息,请致电

020-38815864

地址:广州市天河区燕岭路120号823
电话:020-38815864
邮箱:cs@cs003.vip

浸没式液冷:单机柜130kW散热 PUE 低至 1.05


发布时间:2026-03-20


随着AI大模型训练、超算算力突破及“东数西算”工程的深度推进,数据中心单机柜功率密度正快速攀升,从传统的10-20kW跃升至50kW以上,部分高端算力场景更是突破100kW,传统风冷技术已触及散热极限。当单机柜功率逼近130kW,芯片高温降频、能耗激增、运维成本高企等痛点愈发突出,而浸没式液冷技术的规模化商用,不仅实现了130kW级单机柜高效散热,更将PUE(电能使用效率)压低至1.05的行业领先水平,成为高密算力时代绿色节能的核心解决方案。


不同于传统风冷“间接换热”的低效模式,浸没式液冷的核心优势在于“直接接触换热”——将服务器整机或核心组件完全浸入绝缘介电冷却液中,利用液体远优于空气的导热性能(导热系数约为空气的25倍)和比热容,实现热量的瞬时传导与高效散发,从根源上解决高功率密度设备的散热瓶颈。从技术路径来看,支撑130kW单机柜散热的核心的是单相浸没式液冷方案,该方案无需服务器硬件深度定制,兼容性强,是当前商用化最成熟、性价比最优的技术路线,其散热效率可达300-800W/(m²·K),足以覆盖英伟达H200、AMD MI455X等千瓦级AI芯片的散热需求。


130kW单机柜散热能力的实现,离不开三大核心技术支撑。其一,介电冷却液的选型与优化,当前主流采用国产合成烃或氟化液,兼具不导电、不燃、无毒、化学性质稳定的特点,既不会腐蚀电子元器件,也能避免漏液短路风险,且年损耗率低于5%,可循环使用5年以上,有效控制耗材成本;其二,密封式机柜与循环系统设计,采用IP68级密封腔体,搭配低噪音磁悬浮循环泵,实现冷却液的高效循环,流速控制在2-4m/s,确保服务器各组件温度均匀,芯片表面温度波动控制在±0.5℃以内,长期稳定在60℃以下,避免高温降频导致的算力损失;其三,散热末端的精细化设计,结合自然冷却技术,在温和及寒冷地区可大幅延长自然冷却时长,进一步降低制冷系统能耗,为PUE降至1.05提供了关键支撑。


PUE低至1.05,意味着数据中心非IT设备(制冷、供配电、照明等)的能耗占比仅为5%,这一数值远超国家“东数西算”枢纽节点1.2的PUE硬门槛,甚至逼近理论最优值。从能耗结构来看,传统风冷数据中心的制冷系统能耗占比高达40%-50%,而浸没式液冷系统无需精密空调、服务器风扇等强制散热设备,制冷能耗占比可降至10%以下,仅通过冷却液循环与自然冷却的配合,就能实现极致节能。以一个中等体量数据中心为例,采用该技术后,每年可节省近千万电费,结合运维成本的优化,其总拥有成本(TCO)可在3年内实现与传统风冷方案的反超。


在实际应用场景中,浸没式液冷的优势已得到充分验证。中科曙光在雄安数据中心部署的相变浸没液冷方案,实现了PUE低至1.05,较传统空冷数据中心节电45%,单机柜能耗降低30%;新华三的浸没式液冷解决方案,在不同负载、不同室外温度条件下,均能稳定实现PUE<1.05,且系统能耗较传统风冷降低90%以上。这些案例充分证明,浸没式液冷不仅能满足130kW级高密算力的散热需求,更能在节能降耗、稳定运行、运维优化等方面实现多重突破,尤其适配AI训练、超算、边缘计算等对算力和能效要求极高的场景。

当前,国家“双碳”目标推进与数据中心能效管控趋严,存量数据中心PUE高于1.5的“高耗能”机架占比仍超过40%,绿色化改造迫在眉睫。浸没式液冷技术的成熟与规模化应用,不仅破解了高密算力散热的行业痛点,更契合政策导向,为数据中心从“粗放式运营”向“精细化节能”转型提供了可行路径。相较于冷板式液冷,浸没式液冷实现了100%液冷覆盖,无需额外辅助散热设备,设备故障率降低60%,运维人员可减少40%,同时避免了冷板式液冷局部过热、漏液风险高等问题。


当然,浸没式液冷的规模化推广仍面临一些挑战:初期部署成本高于传统风冷,冷却液的国产化替代仍需进一步推进,行业标准尚未完全统一。但随着技术迭代与产业链成熟,国产冷却液的价格较进口产品降低40%以上,部署成本持续下降,且中电信量子集团、中科曙光等企业牵头组建液冷产业联盟,正推动技术标准化与产业化进程。预计未来3-5年,浸没式液冷将成为高密数据中心的主流散热方案,PUE有望进一步降至1.03以下,结合绿电供电与碳足迹追踪技术,构建“极致节能+绿色供电”的算力底座。


从技术探索到规模化商用,浸没式液冷的突破不仅是散热技术的革新,更是数据中心能效水平的一次跨越。130kW单机柜散热能力与1.05PUE的双重突破,既解决了高密算力发展的核心瓶颈,也为数字经济绿色发展注入了新动能。在算力需求持续爆发的今天,浸没式液冷将持续迭代升级,推动数据中心实现“更高算力、更低能耗、更稳运行”的目标,成为支撑AI、超算等新兴产业发展的关键基础设施。

返回上一页
  • 返回顶部
  • 020-38815864
  • 微信咨询
    关注我们