
数据来源:公开资料整理、东北证券
1.2.AI带来的算力需求测算
算力端行情的核心驱动因素是AI大模型训练及推理所带来的增量算力需求,各个环节的需求空间测算也基于此,因此首先我们需要对AI带来的潜在算力增量有一定的认知。目前AI大模型的训练1和推理2都需要大量的算力,且考虑到训练端“涌现效应”的存在,未来模型随着模型的升级迭代所需的算力规模还会提高。
从定量角度,训练所需算力取决于AI大模型参数量和训练所用数据量,根据OpenAI论文,预训练GPT3所需算力=1750×10^8(参数量)×3×10^11(训练用数据)×6(系数)=3.15×10^23flops。而英伟达A100GPU芯片的单精度(带张量核心)峰值算力是312TFlops=312×10^12flops,算力利用率20%左右,假设30天时间完成GPT3的训练,则需要2000张左右的A100芯片。英伟达目前算力最高的H100芯片单精度(带张量核心)峰值算力为1000×10^12flops,同样30天训练GPT3级别的大模型需要600张H100芯片。
1通过输入语料库、调整参数,经由无标注预训练、有标注强化学习形成具有通用问题解决能力的大模型
2用户使用大模型解决问题
芯片推理阶段所需算力取决于模型参数量和输入输出数据量,GPT3推理所需算力
=1750×10^8(参数量)×(输入输出数据)×2(系数),按照ChatGPT36月日均访问人次3500万计算,假设单次输入输出500字符,高峰期需求翻倍,则算力需求单秒最高值约为1.4×10^17flops,需要2000张左右A100芯片或700张H100芯片。