
•以ChatGPT为代表的人工智能应用在运行背后需要强大的算力支撑。OpenAI在2018年推出的GPT参数量为1.17亿,预训练数据量约5GB,而GPT-3参数量达1750亿,预训练数据量达45TB。在模型训练阶段,ChatGPT的总算力消耗约为3640PF-days,总训练成本为1200万美元,在服务访问阶段则会有更大消耗。
•人工智能的发展将对算力提出更高要求,算力网络基础设施需求有望持续提升。根据中国信通院数据,2021年全球计算设备算力总
规模达到615EFlops(每秒浮点运算次数),同比增长44%,其中基础算力规模为369EFlops,智能算力规模为232EFlops,超算算力规模为14EFlops,预计2030年全球算力规模将达到56ZFlps,平均年均增长65%。
图表:GPT模型示意图图表:全球算力规模及增速
全球算力规模(EFlops)全球算力增速 700 600 500 400 300 200 100 0 201620172018201920202021
50%
39%
33%
31%
23%
24% 133 175 229 309 429 615
44%
40%
30%
20%
10%
0%