您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。近年及 2030 年全球算力总规模(单位:EFLOPS)

近年及 2030 年全球算力总规模(单位:EFLOPS)

分享
+
下载
+
数据
近年及 2030 年全球算力总规模(单位:EFLOPS)
数据
© 2026 万闻数据
数据来源:中国信通院,国盛证券研究所
最近更新: 2023-04-22
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

AI未来已来,AIGC大模型参数量节节攀升。具体来看,以GPT大模型为例,经过3年迭代,GPT模型参数量从初代的1.17亿个提升至2020年GPT-3的1750亿个,OpenAI的论文数据显示,训练参数完整的GPT-3模型会消耗算力3640PFLOPS-dav,也就是说,以一万亿次/秒的速度进行计算,一次训练需要3640天来完成。而2023年3月的GPT-4新增多模态输入功能,参数量只会有增无减。

AI时代,算力就是生产力。AI大模型的训练和推理都离不开强大算力支持,否则AI发展将受到生产力瓶颈的制约。据中国信通院数据,2021年全球计算设备算力规模达到615EFLOPS,同比增长44%;华为GIV预测,2030年人类有望迎来YB数据时代,全球算力规模达到56ZFLOPS,CAGR达到65%。而近年诞生的大模型都宛如“参数怪兽”,在算力资源的高度支持下,才能跑出理想表现,微软NewBing已经消耗了Azure近一半的算力资源,微软不得不在内部建立Waitlist制度以合理调度算力资源。

在本次算力建设的大周期中,光模块的增长弹性最为明显,因此我们将光模块比作“AI时代的逆变器”。首先,光模块是我国的优势产业,我国光通信企业生产的低/中/高速率数通、电信光模块供应全球,因此本轮北美的算力升级周期,国内企业拿下海量订单具有高度确定性。其次,算力芯片升级,推动超算中心内部的数据交换网络带宽升级,光模块向800G、1.6T速率迭代。