百穰二氧化碳储能与算力行业耦合越来越紧密!

236 2025-08-13

近期,某芯片大厂推出的GB200 Grace Blackwell 超级芯片系列被视为驱动下一代人工智能和科学计算的“超级引擎”。 

 

据介绍,GB200由2颗Blackwell GPU和1颗Grace CPU组成,CPU与GPU之间通过NVLink-C2C技术实现高速互联,单个GB200算力是GH200的5倍。强大计算能力的背后则是其恐怖的功耗,GB200系列将GPU 的TDP推升至新的高度,单颗B200 TDP为1200W由两颗B200 加上一颗Grace CPU 组成的GB200 芯片组总TDP 则高达2700W

基于GB200 Grace Blackwell超级芯片NVIDIA提供GB200 NVL72这样的机柜集成方案它将多达72颗Blackwell GPU36Grace CPU 通过超高速网络紧密集成在一个机柜内。这样的设计方案相当于将整个数据中心级别的算力浓缩到一个机柜里,单机柜功耗可达120KW。

GB200 NVL72在提供强大算力的同时,其120KW的高功耗也会产生非常大的热量,目前通用的CPU风冷机柜最高支持12kW/机架,更高密度的H100风冷机柜支持大约40kW/机架,均不能满足其散热需求,因此GB200 NVL72机柜必须采用液冷方案。

传统液冷方案中,冷却液经CDU送出,经冷歧管流入覆盖在处理器上的液冷板,吸收处理器运行产生的废热,吸热后的冷却液从冷歧管流出,在换热器内与冷水机组制出的冷水换热,使其温度降低,再重新回到系统中进行循环。整个散热过程相当于用冷却液作为载体将芯片运行产生的废热传递至室外的散热系统,然后以强制对流和蒸发两种形式将热量排放至外界环境。该过程必然会带来能耗和水耗的增加。

传统液冷工艺原理

如果使用二氧化碳储能系统,该系统在发电过程中,液相二氧化碳需要先蒸发转化为气相二氧化碳,随后再推动透平进行发电,二氧化碳的相变过程需要大量的低品位余热,在这一阶段即可将吸热后的冷却液接入二氧化碳储能系统,利用这些废热完成液相二氧化碳的蒸发,随后将温度降低的冷却液回流入机柜中进行循环。

该过程相当于将芯片运行产生的废热传递至二氧化碳储能系统中,利用二氧化碳的相变来消纳这些废热,全程无冷机能耗且零水耗。

数据中心耦合二氧化碳储能制冷工艺原理

以下通过一则案例分析,为大家提供更加直观的两种冷却技术优势对比:

数据中心布置50台GB200 NVL72,传统液冷系统与二氧化碳储能系统耦合制冷能耗对比,PUE可由1.27降至1.15:

由上可知,数据中心耦合二氧化碳储能系统进行制冷后,其冷机系统能耗可降低94%,节水0.24t/day,大幅降低数据中心冷却系统的运行成本。

同时二氧化碳储能系统独特的“快充慢放,充放独立”运行模式可确保其在风电、光伏大发以及谷电时间段内将富裕电力储存起来,并在合适时间内将储存的电能释放出来,既可保障数据中稳定的电力供应,提高绿电占比,也可降低其用电成本。

综上,百穰二氧化碳储能与算力行业的耦合可有效解决其高能耗、高碳排放与散热效率问题,大幅降低其运行成本,助力未来算力的高速发展。