您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。全球AI服务器出货量

全球AI服务器出货量

分享
+
下载
+
数据
全球AI服务器出货量
数据
© 2026 万闻数据
数据来源:广发证券发展研究中心,TrendForce
最近更新: 2023-12-19
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

AIGC大模型的训练和推理需要大量的高性能计算(HPC)算力支持,全球AI服务器及AI芯片需求维持增长。根据TrendForce,2023年全球AI芯片的出货量预估将增加46%,AI服务器(包含搭载GPU、FPGA、ASIC等)出货量可达120万台,同比增长38.4%,占整体服务器出货量近9%;到2026年,预估全球AI服务器出货量可达237万台,2023-2026年CAGR达29%;国内市场来看,根据IDC,2022年我国大陆AI服务器出货量达28.4万台,预计到2027年达到65万台,2022-2027年CAGR为17.9%。

AI服务器GPU的需求是HBM最主要的增量空间。普通服务器以CPU作为算力的提供者,采用的是串行架构,擅长逻辑计算、浮点型计算等方面。因为在进行逻辑判断时需要大量的分支跳转处理,CPU的结构往往相当复杂,算力的提升主要依靠堆砌更多的核心数来实现。而AI模型训练的算力需求已经远超CPU可以提供的计算能力,因此AI服务器普遍采用CPU+GPU的异构结构,由CPU发出调度指令,利用GPU可以进行多线程吞吐数据的优势,增强其在梳理密集型数据运算,如图形渲染、机器学习等领域的表现。

从成本拆分来看,根据SemiAnalysis,搭建一套AI服务器(如DGX H100)的总成本约为27万美元,比搭建一套普通服务器(如Intel Sapphire Rapids)要高出近25倍,CPU、存储、网卡等多环节价值量均有所提高。其中,GPU是AI服务器成本占比最高的部分,高达72.5%,也是对比传统服务器的纯增量空间。由于AI服务器一般需要搭配8张GPU,而GPU的显存方案基本以HBM为主,所以AIGPU将会成为HBM主要的需求来源。