
2、算力:AI服务器渗透率提升,驱动计算、数通硬件需求
AI芯片军备竞赛将持续推动产品升级,中长期供给或将多元化。中短期看,AI模型发展、竞争仍将推升AI芯片出货量和规格;长期看,AI芯片需求将注重投入
产出比和总拥有成本(TCO),重心预估将从AI大模型训练转向AI垂直模型训练和AI推理。根据Yole报告,AI服务器(含GPU及其他加速器)2028年渗透率有望从2023年的接近10%增至超过18%,其中约70%-75%为GPU服务器。
图10、服务器规模及加速器服务器渗透率(左侧百万部;右侧%)
图11、加速器服务器规模及GPU服务器占比(左侧百万部;右侧%)
25 20% 5 90%
20 15% 4 85%
15 10% 3 80%
5 5% 1 70%
0 0% 0 65%
服务器(无加速器;左轴,百万部)服务器(搭载加速器;左轴,百万部)加速器渗透率(右轴;%)
服务器(其他加速器;左轴,百万部)服务器(GPU加速器;左轴,百万部)GPU加速器占比(右轴,%)
资料来源:Yole(含预测),兴业证券经济与金融研究院整理
资料来源:Yole(含预测),兴业证券经济与金融研究院整理
芯片供给方面,我们认为龙头英伟达、AMD和英特尔仍将持续受益,此外自研芯片、定制芯片预计将成为云服务商、AI应用公司差异化竞争的关键筹码之一,博通、迈威尔与谷歌、亚马逊、Meta等云服务龙头在定制ASIC产品展开深度合作,预计也将成为AI芯片算力竞赛的受益方。
公司名 类型 类型 型号 发布时间 架构 制程 内存 内存规格(GB)
AI训练 GPU H200 2023 Hopper 4nm HBM3E 141
AI训练 GPU H100/H800 2022 Hopper 4nm HBM3 80
AI训练 GPU A100/A800 2020 Ampere 7nm HBM2e 80
NVIDIA AI训练/推理 GPU L40S 2023 AdaLovelace - GDDR6 48
AI训练/推理 GPU A30 2021 Ampere 7nm HBM2e 24
AI推理 GPU L4 2023 AdaLovelace 12nm GDDR6 24
AI推理 GPU T4 2018 Turing 5nm GDDR6 16
AI训练 GPU MI200 2022 CDNA3 6nm HBM2e 128
AMD AI训练AI推理 GPUGPU MI300RadeonV 20232021 CDNA3RDNA2 5nm7nm HBM3GDDR6 12832
AI推理 FPGA Versal 2018 - 7nm HBM2e 32
AI训练 GPU MaxGPU 2022 Xe-HPC 5nm HBM2e 128
AI训练 GPU HabanaGaudi2 2022 Gaudi 7nm HBM2e 96
Intel AI训练AI训练 GPUGPU HabanaGaudi3FalconShore 20242025 GaudiGaudi 5nm- -- --
AI训练 GPU FlexGPU 2022 Xe-HPG 6nm GDDR6 12
AI训练 FPGA AlteraStratix10 2018 - 14nm HBM2 16
表1、英伟达、AMD、IntelAI芯片产品矩阵
资料来源:英伟达、英特尔、AMD,兴业证券经济与金融研究院整理