
图24:液冷产业链上下游
资料来源:电信运营商《电信运营商液冷技术白皮书》、各公司官网、开源证券研究所
2.5.1、液冷变化1:主流计算芯片和单机柜功耗不断增长,逐步突破风冷散热极限
AIGC高速发展,带动数据中心朝着高密度化发展,伴随芯片侧及机柜侧功耗持续增长,逼近风冷散热极限,液冷产业链渗透率有望快速提升。
(1)芯片侧:高算力需求下,国内外算力芯片热功率不断攀升,传统风冷散热模组下热点问题显著,风冷散热已达瓶颈。我们认为:当CPU芯片≥350W或GPU芯片功耗≥400W时,液冷成为“待选”方案。随着芯片功率提升,液冷散热优势逐渐凸显,风冷散热性价比持续降低,采用液冷散热方案的比例不断增长。当GPU芯片功耗≥800-1000W时,液冷成为必选方案。此时已逼近风冷散热极限800W左右,
液冷将从可选改为必选,目前英伟达B200计算芯片TDP为1000W,GB200计算芯片TDP最高为2700W,已采用单相冷板式液冷替代原有风冷方案,若芯片功耗持续上升,单相冷板式液冷或达到散热瓶颈逐渐开始向相变冷板式或浸没式液冷转变。
(2)机柜侧:AI集群对算力密度有一定要求,训练单元过于分散不利于作业开展,同时,AI服务器功耗大幅增长带动机柜侧整体功耗持续增长,如英伟达NVL72方案单机柜功耗达120KW,华为Atlas900单机柜功耗达到50KW,已超过风冷散热极限,均改用液冷方案。
资料来源:Vertiv资料来源:NVIDIA
2.5.2、液冷变化2:运营商积极推动液冷生态成熟,按下液冷“加速键”
电信运营商提出三年愿景,液冷发展按下“加速键”。据三大电信运营商联合发布的《电信运营商液冷技术白皮书》,电信运营商提出三年愿景:构筑开放生态,降低PUE与TCO;发挥规模优势,大力拓展应用。冷板式液冷方面,推进形成拥有原创技术、接口标准统一、产业生态完善、应用规模最大的发展态势;浸没式液冷方面,推进形成标准统一化、产品国产化、实施工程化、推广规模化的发展格局。