
此外,国内算力建设也将利好国内液冷供应商。液冷是趋势相对已经明确。随着GPU算力的提升,芯片需要在更短时间内完成更多运算,必然伴随芯片能耗的加大,英伟达A100芯片单芯片功耗达到400W、H100达到700W,国内昇腾910芯片功耗也超过300W,后续英伟达B100芯片功耗可能进一步提升至1000W,对于芯片散热的要求将持续提升,未来液冷预计将成为服务器散热的主要方式。
三大运营商联合发布《白皮书》,提出2023年为技术验证阶段,三大运营商将开展技术验证,引领形成液冷机柜与服务器解耦标准,主流厂家解耦液冷产品完成研发;2024年为规模试验阶段,新建项目10%规模试点液冷技术,推进生态成熟;2025年及以后,开展规模应用,50%以上数据中心项目应用液冷技术,实现技术、生态、应用全面领先。近期中国电信AI算力服务器(2023-2024年)集中采购项目中,采购的G系列训练型服务器中,风冷、液冷的比例已经相当。我们预计液冷方案将率先在AI服务器中应用,2024年开始将进入规模建设阶段,并且基于其更强的散热能力,液冷在AI服务器的渗透率有望快速提升,2025年有望成为AI服务器的主流散热方案。随着规模应用带来的方案成熟度的验证以及成本端的下降,叠加PUE监管要求的实质性落地,液冷有望进一步向通用服务器市场进行渗透,整体规模有望超过百亿级。短中期来看,冷板式液冷方案是主流,在服务器内部新增液冷板、管路、接头等环节,此前服务器内部散热(风扇等)供应商多以台系、美系等企业为主,尤其英伟达,其散热环节供应链体系相对封闭,即使切换到液冷,预计仍以台系、美系等供应商配合为主,国内厂商短期切入难度大。而国内算力建设自立自强趋势下,国内液冷散热供应商将更快切入服务器内部液冷环节并且发展空间广阔。建议关注:英维克、科创新源等。