
AI未来已来,AIGC大模型参数量节节攀升。具体来看,以GPT大模型为例,经过3年迭代,GPT模型参数量从初代的1.17亿个提升至2020年GPT-3的1750亿个,OpenAI的论文数据显示,训练参数完整的GPT-3模型会消耗算力3640PFLOPS-dav,也就是说,以一万亿次/秒的速度进行计算,一次训练需要3640天来完成。而2023年3月的GPT-4新增多模态输入功能,参数量只会有增无减。
AI时代,算力就是生产力。AI大模型的训练和推理都离不开强大算力支持,否则AI发展将受到生产力瓶颈的制约。据中国信通院数据,2021年全球计算设备算力规模达到615EFLOPS,同比增长44%;华为GIV预测,2030年人类有望迎来YB数据时代,全球算力规模达到56ZFLOPS,CAGR达到65%。而近年诞生的大模型都宛如“参数怪兽”,在算力资源的高度支持下,才能跑出理想表现,微软NewBing已经消耗了Azure近一半的算力资源,微软不得不在内部建立Waitlist制度以合理调度算力资源。
在本次算力建设的大周期中,光模块的增长弹性最为明显,因此我们将光模块比作“AI时代的逆变器”。首先,光模块是我国的优势产业,我国光通信企业生产的低/中/高速率数通、电信光模块供应全球,因此本轮北美的算力升级周期,国内企业拿下海量订单具有高度确定性。其次,算力芯片升级,推动超算中心内部的数据交换网络带宽升级,光模块向800G、1.6T速率迭代。