您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。2015至2023年全球数据中心GPU市场出货量

2015至2023年全球数据中心GPU市场出货量

分享
+
下载
+
数据
2015至2023年全球数据中心GPU市场出货量
数据
© 2026 万闻数据
数据来源:TechInsights,国信证券经济研究所整理 资
最近更新: 2024-12-06
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

技术迭代方面,一是大模型推理能力在规模定律(Scaling Law)的作用下快速提升,以OpenAI为代表的大模型厂商产品升级速度较快。规模定律是指大模型的性能与计算量、模型参数量和训练数据量三者之间存在幂律关系,随着三者提升大模型可以涌现出类似人类大脑的智能行为(可类比半导体领域的摩尔定律)。2022年11月OpenAI公司发布ChatGPT后,在两个月后便推出ChatGPT Plus订阅服务,商业化落地进程开启。2023年3月,OpenAI公司发布多模态大模型GPT-4,支持图像输入且模型理解力和生成能力大幅提升。此后,OpenAI保持了高频的产品发布(表2),人工智能大模型产品的用户反馈和舆论影响力持续提升。

二是人工智能算力龙头英伟达亦保持了较快的芯片架构升级速度。从过去十年看算力龙头英伟达始终保持较高的研发投入和较快的产品迭代速度(表3)。2024年3月,英伟达推出全新的Blackwell架构GPU,内置第二代Transformer引擎,利用先进的动态范围管理算法和细粒度缩放技术来优化性能和精度,并首度支持FP4新格式,使得FP4 Tensor核性能、HBM模型规模和带宽都实现翻倍。从训练效果上看,训练1.8万亿参数的GPT-MoE混合专家模型,用25000个AmpereGPU,需要3-5个月左右;要是用Hopper,需要约8000个GPU、90天来训练,耗电15MW;而用Blackwell,同样花90天,只需2000个GPU,耗电仅4MW,GPU综合性能进一步大幅提升,为公司营收增长创造了条件。