
图表2:2017-2023年全球服务器出货量预测趋势图图表3:2018-2023年中国服务器出货量预测趋势图
来源:TrendForce,观知海内咨询,国金证券研究所来源:TrendForce,观知海内咨询,国金证券研究所
大数据生成、业务模式变迁强调实时业务的重要性,导致高性能计算集群对于功耗、散热的要求提升。随着ChatGPT引爆新一轮人工智能应用的热情,海内外数据中心、云业务厂商纷纷开始推动AI基础设施建设,AI服务器出货量在全部服务器中的占比逐渐提高。根据TrendForce的数据,2022年搭载GPU的AI服务器年出货量占全部服务器的比重接近1%,2023年在ChatGPT等人工智能应用加持下,AI服务器出货量有望同比增长8%,
2022-2026年出货量CAGR有望达10.8%,AI服务器用GPU,主要以英伟达H100、A100、A800(主要出货中国)以及AMDMI250、MI250X系列为主,而英伟达与AMD的占比约8:2。
类别 GPU FPGA ASIC
特点 性能高、计算能力强功耗高
通用性好 可编程性、灵活功耗和通用性介于GPU与ASIC之间 定制化设计性能稳定
优秀的功耗控制
代表公司 英伟达、AMD 赛灵思 寒武纪、地平线、比特大陆、谷歌(TPU)
来源:ADLINK,国金证券研究所
芯片电感更适用于如AI服务器相关的高功耗、高散热要求的场景。摩尔定律发展晶体管数量增多,产品功耗瓦数升高,对于散热的要求提升。随着IC制程、晶片效能、小型化升级,芯片瓦数大幅提升,表面高单位密度发热,对于导热、散热的要求提升。以主流厂商为例,Intel10nm以下制程需采均热片以解决发热问题,AMD7nm制程使用均热片,5nm则必须采用均热片进行散热。未来随着先进制程比如3nm推进,同时搭配3D封装,对于散热效率的要求更高。AMDGPU、IntelNBCPU和英伟达GPU的功耗发展分别达到380W、150W和超530W。相较于铁氧体,金属软磁粉芯在耐受电流方面性能更好。
图表5:AMDGPU功耗发展图表6:IntelNBCPU功耗发展
来源:AMD,国金证券研究所来源:Intel,国金证券研究所