本次AI浪潮中,大模型参数量成指数级增长。随着AI大模型的发展,通用AI模型的参数量不断攀升,从2018年3亿的Bert、19年15亿的GPT2,到21年1750亿的GPT-3,22年1.6万亿的Switch Transformer。为了获得更好的性能,大模型的规模逐年提升。
大模型训练算力需求也随大模型参数的增大而指数级提升。而大模型规模的提升,也意味着计算复杂度的提升,进而为计算增添了难度。在大模型时代,算力供给需要不断增长以适应大模型训练及推理算力需求。