您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。服务器规模及加速器服务器渗透率(左侧百万部;右侧%)

服务器规模及加速器服务器渗透率(左侧百万部;右侧%)

分享
+
下载
+
数据
服务器规模及加速器服务器渗透率(左侧百万部;右侧%)
数据
© 2026 万闻数据
数据来源:兴业证券经济与金融研究院整理,Yole(含预测)
最近更新: 2023-12-12
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

2、算力:AI服务器渗透率提升,驱动计算、数通硬件需求

AI芯片军备竞赛将持续推动产品升级,中长期供给或将多元化。中短期看,AI模型发展、竞争仍将推升AI芯片出货量和规格;长期看,AI芯片需求将注重投入

产出比和总拥有成本(TCO),重心预估将从AI大模型训练转向AI垂直模型训练和AI推理。根据Yole报告,AI服务器(含GPU及其他加速器)2028年渗透率有望从2023年的接近10%增至超过18%,其中约70%-75%为GPU服务器。

图10、服务器规模及加速器服务器渗透率(左侧百万部;右侧%)

图11、加速器服务器规模及GPU服务器占比(左侧百万部;右侧%)

25 20% 5 90%

20 15% 4 85%

15 10% 3 80%

5 5% 1 70%

0 0% 0 65%

服务器(无加速器;左轴,百万部)服务器(搭载加速器;左轴,百万部)加速器渗透率(右轴;%)

服务器(其他加速器;左轴,百万部)服务器(GPU加速器;左轴,百万部)GPU加速器占比(右轴,%)

资料来源:Yole(含预测),兴业证券经济与金融研究院整理

资料来源:Yole(含预测),兴业证券经济与金融研究院整理

芯片供给方面,我们认为龙头英伟达、AMD和英特尔仍将持续受益,此外自研芯片、定制芯片预计将成为云服务商、AI应用公司差异化竞争的关键筹码之一,博通、迈威尔与谷歌、亚马逊、Meta等云服务龙头在定制ASIC产品展开深度合作,预计也将成为AI芯片算力竞赛的受益方。

公司名 类型 类型 型号 发布时间 架构 制程 内存 内存规格(GB)

AI训练 GPU H200 2023 Hopper 4nm HBM3E 141

AI训练 GPU H100/H800 2022 Hopper 4nm HBM3 80

AI训练 GPU A100/A800 2020 Ampere 7nm HBM2e 80

NVIDIA AI训练/推理 GPU L40S 2023 AdaLovelace - GDDR6 48

AI训练/推理 GPU A30 2021 Ampere 7nm HBM2e 24

AI推理 GPU L4 2023 AdaLovelace 12nm GDDR6 24

AI推理 GPU T4 2018 Turing 5nm GDDR6 16

AI训练 GPU MI200 2022 CDNA3 6nm HBM2e 128

AMD AI训练AI推理 GPUGPU MI300RadeonV 20232021 CDNA3RDNA2 5nm7nm HBM3GDDR6 12832

AI推理 FPGA Versal 2018 - 7nm HBM2e 32

AI训练 GPU MaxGPU 2022 Xe-HPC 5nm HBM2e 128

AI训练 GPU HabanaGaudi2 2022 Gaudi 7nm HBM2e 96

Intel AI训练AI训练 GPUGPU HabanaGaudi3FalconShore 20242025 GaudiGaudi 5nm- -- --

AI训练 GPU FlexGPU 2022 Xe-HPG 6nm GDDR6 12

AI训练 FPGA AlteraStratix10 2018 - 14nm HBM2 16

表1、英伟达、AMD、IntelAI芯片产品矩阵

资料来源:英伟达、英特尔、AMD,兴业证券经济与金融研究院整理