
•AI服务器采用异构式架构,GPU数量远高于普通服务器。AI服务器和普通服务器的主要区别在于:1)架构不同,AI服务器采用CPU+GPU/FPGA/ASIC等异构式架构,而普通服务器一般是CPU架构;2)GPU数量差别巨大,AI服务器单服务器GPU用量通常在4颗以上。例如:NVIDIADGXA100包括8个A100GPU+2个AMDRomeCPU,而浪潮英信服务器NF5280M6仅配置1-2个英特尔第三代Xeon处理器。
•GPU架构为主流加速架构,是服务器核心成本构成。GPU采用并行计算,适用于处理密集型运算,如图形渲染、机器学习等场
景,AI算力需求的提升推动了GPU卡的运算速度和用量需求进一步增长。根据IDC数据,2022年GPU加速卡占据AI市场89%的份额,在机器学习型服务器中GPU成本占比达72.8%。
类型 典型产品 芯片 价格 数量
AI
服务器 NVIDIADGXA100 A100Tensor CoreGPU USD14,999 8
64coreAMDRomeCPU ~USD7,000 2
普通
服务器 浪潮英信服务器NF5280M6 Intel第三代
Xeon处理器 RMB64,000 1~2
表:AI服务器和普通服务器的区别
数据来源:英伟达官网,浪潮信息官网,
国泰君安证券研究
100%
80%
60%
40%
20%
0%
图:服务器成本构成情况
基础型高性能型推理型机器学习型
CPUGPUmemorystorage其他
数据来源:IDC,国泰君安证券研究 1400 1200 1000 800 600 400 200 0
图:中国智能算力规模及预测(单位:EFLOPS)