您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。2019-2026年中国智能算力规模及预测

2019-2026年中国智能算力规模及预测

分享
+
下载
+
数据
2019-2026年中国智能算力规模及预测
数据
© 2026 万闻数据
数据来源:兴业证券经济与金融研究院整理,IDC
最近更新: 2023-12-17
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

2、AI产业的近期变化及机会

2.1、算力:多款训练芯片问世,国产算力加速追赶

训练&推理两端拉动,算力需求持续扩张。从AI产业链视角看,算力是大模型和应用的基础设施,当前大模型尤其是多模态算法的快速迭代、AI应用的持续兑现正带动更多算力的需求。据Market于2023年11月发布的数据,预计全球算力市

场规模到2032年将达到813亿美元,算力市场容量持续提升。据IDC数据,预计到2026年中国智能算力规模将达到1271.4EFLOPS;2021-2026年期间,中国智能算力规模年复合增长率为52.3%,显著高于同期通用算力规模的年复合增速。

图1、2022-2032年全球算力市场规模及预测图2、2019-2026年中国智能算力规模及预测

资料来源:Market,兴业证券经济与金融研究院整理资料来源:IDC,兴业证券经济与金融研究院整理

算力赛道加速兑现,AI芯片新品持续发布。英伟达、AMD、微软持续加码算力产品研发,近期发布多款芯片产品。11月13日,英伟达发布了新一代超级芯片H200;12月7日,AMD紧跟英伟达步伐,迅速发布MI300系列产品,着重提升AI算力

能力。在产品不断迭代的同时,英伟达在业绩侧加速兑现。11月21日公司发布

2024财年第三财季报告,FY24Q1-Q3实现营收388.19亿美元,同比增长85.53%;

净利润174.75亿美元,同比增长491.57%;其中,数据中心业务收入291.21亿美元,同比增长155.7%,并带动整体利润率提升。

表1、近期国外主要AI芯片产品发布梳理

公司训练芯片产品发布时间介绍

MI300X2023年12月7日支持高达192GB的HBM3存储器。MI300X内存是英伟达H100产品的2.4

AMD

微软

倍,内存带宽是H100的1.6倍,进一步提升了性能。

MI300A2023年12月7日是世界首款专为HPC和AI设计的APU,使用的HBM3内存规格为128GB。

Maia1002023年11月16日是微软与OpenAI合作的产品,以支持微软AzureOpenAI服务,从而提供高

性能、高效率和高灵活性。5nm工艺,拥有1050亿个晶体管。

Cobalt1002023年11月16日该芯片基于Arm架构,具有128个核心,专门用于在微软Cloud上运行通用

计算工作负载,并且可以与Azure的生态系统兼容。

英伟达H2002023年11月13日配备总容量141GB的HBM3e内存,有效运行速度约为6.25Gbps,六个HBM3e

堆栈中每个GPU的总带宽为4.8TB/s,Llama2-70B推理提速90%。

资料来源:网易新闻等,兴业证券经济与金融研究院整理

硬件方面:英伟达持续领先,AMD全面发力。英伟达持续迭代算力产品,强化产品侧竞争壁垒。11月3日发布的H200芯片拥有141GB内存、4.8TB/秒带宽,在高性能计算HPC方面的速度达双核x86CPU的110倍,8路HGXH200可提供

超过32Petaflops的FP8深度学习计算能力和1.1TB的超高显存带宽。AMD强化