液冷算力服务器是一种采用液体冷却技术来散热的服务器,相比传统风冷服务器,在应对高算力需求场景下的散热问题时具有显著优势,以下为您详细介绍:
冷板式液冷:通过在服务器的发热部件(如 CPU、GPU 等)上安装冷板,冷板内部有冷却液循环通道。冷却液吸收发热部件的热量后,通过循环系统将热量带走,最终在外部散热设备中释放热量 。
浸没式液冷:将服务器的硬件组件完全浸没在绝缘冷却液中,冷却液直接与硬件接触,吸收热量后通过热交换器将热量传递给外部环境 。
- 高效散热:液冷技术能够更有效地带走服务器产生的热量,确保服务器在高负载运行时保持较低的温度,从而提高服务器的性能和稳定性。特别是对于高性能计算、人工智能等算力需求大且芯片功耗高的应用场景,液冷服务器能够更好地满足散热需求,避免因过热导致的性能下降或硬件损坏 。
- 节能降耗:液冷服务器减少了对传统风冷散热所需的大量风扇等设备的依赖,降低了风扇能耗。同时,液冷系统的散热效率高,使得数据中心的制冷系统能耗也相应降低,有助于提高数据中心的能源利用效率,降低运营成本 。
- 降低噪音:由于不需要大量风扇进行散热,液冷服务器运行时产生的噪音大幅降低,为数据中心创造了更安静的工作环境,也减少了噪音对服务器硬件和周边设备的潜在影响 。
- 节省空间:液冷服务器的散热模块通常比风冷散热模块更加紧凑,在相同的机柜空间内,可以容纳更多的液冷服务器,提高数据中心的空间利用率,有助于数据中心实现更高的算力密度 。
- 人工智能与深度学习:如训练大规模的神经网络模型,像 GPT 这样的大型语言模型训练,需要大量的计算资源和极高的算力支持,液冷服务器能够有效应对长时间高负载运行下的散热挑战,保证训练过程的稳定和高效 。
- 高性能计算(HPC):在科学研究、金融分析、气象预测等领域的高性能计算任务中,涉及到大量的数据处理和复杂的计算,液冷服务器可以提供持续稳定的高性能算力输出,确保计算任务的快速完成 。
- 数据中心:随着数据中心规模的不断扩大和功率密度的增加,传统风冷散热方式面临着越来越大的挑战。液冷服务器为数据中心提供了一种更高效、节能的散热解决方案,有助于降低数据中心的 PUE 值,实现绿色节能的数据中心运营 。
- 市场增长迅速:据 IDC 报告,中国液冷服务器市场在 2023 年继续保持快速增长,市场规模达 15.5 亿美元,同比增长 52.6%,预计在 2023-2028 年,年复合增长率将达45.8%,2028 年市场规模将达到 102 亿美元 。
- 技术不断创新:液冷技术不断发展,如超聚变的 FusionPoD for AI 新一代全液冷整机柜 GPU 服务器,实现了节点级全液冷,采用分布式 CDU,具备高效和极简部署等优势 。
- 超聚变 FusionPoD for AI:新一代全液冷整机柜 GPU 服务器,重构集群管理系统,兼容英伟达和其他厂商的 GPU 或加速器,基于超聚变柔性冷板技术实现节点级全液冷,还可升级为分布式 CDU,具有高效、节能、静音等优点。
- 宁畅原生全液冷通用机架服务器:实现原生全液冷,对服务器内解热需求的部件进行原生基因式、标准化的液冷设计,包含 CPU、DIMM、SSD/HDD、GPU、PCIe 卡、PSU 等,并通过 OCP UQD/UQDB 液体连接器以及特殊高分子材料管路实现整机液冷的全面、解耦覆盖。