
图15:算力产业链示意图
资料来源:公司官网,公司公告,国信证券经济研究所整理
(3)从全面云端AI到关注边缘AI应用。目前大模型的训练和推理都以云端为主,远期来看,边缘侧AI可以本地进行推理,具备应用必要性,例如缓解网络压力、高可靠性与低时延以及隐私与安全性等。高通认为混合AI架构是AI的发展方向,芯片厂商、软件厂商也都在持续优化大模型端侧运行能力,包括增强芯片算力、对模型进行蒸馏等优化处理以及面向垂直行业推出小模型等。
图16:以端侧为中心的混合AI架构
资料来源:Qualcomm,国信证券经济研究所整理
核心基础设施:景气度持续提升,长期受益AI发展
AI算力核心基础设施包括服务器、交换机与光模块。AI集群的核心基础设施主要包括服务器、交换机与光模块。以英伟达A100方案为例,一个标准的基本单元SuperPOD由140台DGXA100GPU服务器、HDRInfiniBand200G网卡和170台NVIDIAQuantumQM8790交换机构建而成,其中交换机速率为200G,每个端口数为40个;最新发布GH200方案中,针对256张超级芯片GPU互联,采用2层网络结构,其中两层网络均采用NVLINKSWITCH来完成搭建,第一层(服务器和第一层交换机)之间使用了96台交换机,第二层(Level2)使用了36个交换机,每台交换机拥有32个端口,每个端口速率为800G。