
•大模型推动算力需求增长。自2022年OpenAi发布的ChatGPT将大型语言生成模型和AI推向新高度以来,全球各大科技巨头纷纷拥抱AIGC(AI-Generated Content,人工智能生成内容)。大模型通常包含数亿级的参数,需要消耗大量算力。据OpenAI团队发表于2020年的论文《Language Models are Few-Shot Learners》,训练一次1746亿参数的GPT-3模型需要的算力约为3640PFlop/s-day。AI大模型可以用于训练和推理,主要用在云端(数据中心侧)和边缘侧(终端侧)。华福证券
•AI服务器作为算力的发动机,算力需求的增长将迎来AI服务器需求的快速增长。据IDC统计,2023年全球AI服务器市场规模预计为211亿美元,2025年将达到达317.9亿美元,2023-2025年CAGR为22.7%。采购量方面,根据TrendForce的统计,截至2022年,北美四大云端服务提供商Microsoft、Google、Meta、AWS在全球AI服务器采购中的总份额达到约66%,Microsoft和Google分别占有全球19%以及17%的份额。