来源:半导体行业观察
2025-04-26 10:05:06
(原标题:这项技术,大幅提高AI处理器效率)
如果您希望可以时常见面,欢迎标星收藏哦~
来源:内容来自techspot ,谢谢。
随着人工智能和高性能计算持续推动对更强大数据中心的需求,整个行业正面临一个日益严峻的挑战:如何在不消耗不可持续的能源和水资源的情况下,为日益密集的服务器机架进行冷却。传统的空气冷却系统曾经足以应对早期的服务器硬件,但如今在现代AI基础设施带来的强大热负载面前已濒临极限。
这一转变在英伟达的最新产品中表现得尤为明显。该公司的GB200 NVL72和GB300 NVL72机架级系统在计算密度上实现了重大飞跃,每个机架内集成了数十个GPU和CPU,以满足万亿参数AI模型和大规模推理任务的性能需求。
但这种性能水平也带来了高昂代价。典型的数据中心机架功耗在7至20千瓦之间(高端GPU机架平均为40至60千瓦),而英伟达的新系统每个机架则需要120至140千瓦——是传统架构功耗的七倍以上。
如此剧增的功率密度使得传统的空气冷却方式对这种高性能集群而言已完全不再适用。空气根本无法足够快地带走热量,特别是在机架日益紧凑的背景下。
为了解决这一问题,英伟达采用了直触式液冷系统——冷却液通过直接安装在GPU和CPU等最热部件上的冷板循环流动。这种方式的热传导效率远高于空气冷却,使得实现更密集、更强大的配置成为可能。
与传统蒸发式冷却(需要大量水来冷却空气或水循环)不同,英伟达的方式使用了封闭回路的液体冷却系统。在这种系统中,冷却液不断循环,不发生蒸发,从而几乎杜绝了水的损耗,大大提高了用水效率。
据英伟达称,其液冷设计比传统冷却方法的能效高达25倍,用水效率更是高出300倍——这一主张在运营成本与环境可持续性方面具有重要意义。
这些系统背后的架构也十分复杂。冷却液吸收的热量通过机架级的液-液换热器(即冷却液分配单元,CDU)转移到数据中心的整体冷却系统中。
这些由CoolIT、Motivair等合作伙伴开发的CDU可以支持高达2兆瓦的冷却容量,足以应对高密度机架产生的巨大热负载。此外,温水冷却还减少了对机械式冷水机的依赖,进一步降低了能源消耗和用水量。
然而,向直触式液冷系统的过渡也带来了挑战。传统数据中心强调模块化和易维护性,采用热插拔部件以便于快速维修。而全封闭液冷系统则使这一模式更为复杂,因为打开密封循环更换服务器或GPU会有损坏整个冷却回路的风险。
为缓解这些问题,直触式系统采用了防滴漏的快速断开接头,在保障可维护性的同时降低泄漏风险。不过,大规模部署液冷系统通常仍需对数据中心的物理基础设施进行大幅改造,前期投入显著。
尽管存在这些障碍,英伟达基于Blackwell架构的系统所带来的性能提升,仍使得运营商纷纷推进液冷改造。英伟达已与施耐德电气合作开发参考架构,加速高密度液冷集群的部署。这些设计集成了CDU与先进的热管理系统,可支持每个机架高达132千瓦的负载。
https://www.techspot.com/news/107680-closed-loop-liquid-cooling-powers-nvidia-push-greener.html
半导体精品公众号推荐
专注半导体领域更多原创内容
关注全球半导体产业动向与趋势
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4015期内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
黑鹰光伏
2025-04-27
半导体行业观察
2025-04-27
半导体行业观察
2025-04-27
半导体行业观察
2025-04-27
半导体行业观察
2025-04-27
半导体行业观察
2025-04-27
证券之星资讯
2025-04-27
证券之星资讯
2025-04-27
证券之星资讯
2025-04-27