
2、AI产业的近期变化及机会
2.1、算力:多款训练芯片问世,国产算力加速追赶
训练&推理两端拉动,算力需求持续扩张。从AI产业链视角看,算力是大模型和应用的基础设施,当前大模型尤其是多模态算法的快速迭代、AI应用的持续兑现正带动更多算力的需求。据Market于2023年11月发布的数据,预计全球算力市
场规模到2032年将达到813亿美元,算力市场容量持续提升。据IDC数据,预计到2026年中国智能算力规模将达到1271.4EFLOPS;2021-2026年期间,中国智能算力规模年复合增长率为52.3%,显著高于同期通用算力规模的年复合增速。
图1、2022-2032年全球算力市场规模及预测图2、2019-2026年中国智能算力规模及预测
资料来源:Market,兴业证券经济与金融研究院整理资料来源:IDC,兴业证券经济与金融研究院整理
算力赛道加速兑现,AI芯片新品持续发布。英伟达、AMD、微软持续加码算力产品研发,近期发布多款芯片产品。11月13日,英伟达发布了新一代超级芯片H200;12月7日,AMD紧跟英伟达步伐,迅速发布MI300系列产品,着重提升AI算力
能力。在产品不断迭代的同时,英伟达在业绩侧加速兑现。11月21日公司发布
2024财年第三财季报告,FY24Q1-Q3实现营收388.19亿美元,同比增长85.53%;
净利润174.75亿美元,同比增长491.57%;其中,数据中心业务收入291.21亿美元,同比增长155.7%,并带动整体利润率提升。
表1、近期国外主要AI芯片产品发布梳理
公司训练芯片产品发布时间介绍
MI300X2023年12月7日支持高达192GB的HBM3存储器。MI300X内存是英伟达H100产品的2.4
AMD
微软
倍,内存带宽是H100的1.6倍,进一步提升了性能。
MI300A2023年12月7日是世界首款专为HPC和AI设计的APU,使用的HBM3内存规格为128GB。
Maia1002023年11月16日是微软与OpenAI合作的产品,以支持微软AzureOpenAI服务,从而提供高
性能、高效率和高灵活性。5nm工艺,拥有1050亿个晶体管。
Cobalt1002023年11月16日该芯片基于Arm架构,具有128个核心,专门用于在微软Cloud上运行通用
计算工作负载,并且可以与Azure的生态系统兼容。
英伟达H2002023年11月13日配备总容量141GB的HBM3e内存,有效运行速度约为6.25Gbps,六个HBM3e
堆栈中每个GPU的总带宽为4.8TB/s,Llama2-70B推理提速90%。
资料来源:网易新闻等,兴业证券经济与金融研究院整理
硬件方面:英伟达持续领先,AMD全面发力。英伟达持续迭代算力产品,强化产品侧竞争壁垒。11月3日发布的H200芯片拥有141GB内存、4.8TB/秒带宽,在高性能计算HPC方面的速度达双核x86CPU的110倍,8路HGXH200可提供
超过32Petaflops的FP8深度学习计算能力和1.1TB的超高显存带宽。AMD强化