您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。2021 年企业级 GPU 市场份额

2021 年企业级 GPU 市场份额

分享
+
下载
+
数据
2021 年企业级 GPU 市场份额
数据
© 2026 万闻数据
数据来源:德邦研究所,国际电子商情,IDC
最近更新: 2023-08-10
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

AI服务器发展迅速,GPU环节为英伟达与AMD所占据。AIGC的发展带动AI服务器迅速增长,TrendForce集邦咨询预计23年AI服务器出货量约120万台,同比+38.4%,占整体服务器出货量的比约为9%,2022~2026年AI服务器出货量CAGR将达22%,而AI芯片2023年出货量将成长46%。GPU作为数据并行处理的核心,是AI服务器的核心增量。全球GPU呈现“一超一强”的竞争格局,根据IDC数据,2021英伟达在企业级GPU市场中占比91.4%,AMD占比8.5%。

目前英伟达产品DGX GH200已发布,互连技术强大,算力进一步升级。5月29日,英伟达在其发布会上,正式发布最新的GH200 Grace Hopper超级芯片,以及拥有256个GH200超级芯片的NVIDIA DGX GH200超级计算机。GH200超级芯片内部集成了Grace CPU和H100 GPU,晶体管数量达2000亿个。其借助NVIDIA NVLink-C2C芯片互连,将英伟达Grace CPU与英伟达H100 Tensor Core GPU整合。与PCIe Gen5技术相比,其GPU和CPU之间的带宽将提高7倍,并将互连功耗减少至1/5以下。同时,DGX GH200的AI性能算力将达到1 exaFLOPS。

英伟达产品DGX GH200共享内存大幅提升,突破内存瓶颈。DGX GH200系统将256个GH200超级芯片与144TB的共享内存进行连接,进一步提高系统协同性。与DGXH100相比,DGXGH200的共享内存提升约230倍。凭借强大的共享内存,GH200能够显著改善受GPU内存大小瓶颈影响的AI和HPC应用程序的性能。而在具有tb级嵌入式表的深度学习推荐模型(DLRM)、tb级图神经网络训练模型或大型数据分析工作负载中,使用DGX GH200可将速度提高4到7倍。