
资料来源:IDC资料来源:Dell’Oro,预测不包含以太网AI
以DGXB200服务器、NVIDIAMQM979064个400G端口交换机(32个OSFP
端口)为例,服务器后端中间有4个双端OSFP对应8个GPU,31台服务器(即248个GPU)组成1个节点上联8台leaf交换机,并对应4个Spine交换机,共计12台计算网络节点交换机。此外,存储网络仍需配套高速400G交换机,管理网络则速率较低(100Gbps),均会带来大量数据中心交换机需求。
图37:DGXB200网络端口示意图图38:DGXB200127节点计算网络组网架构
资料来源:NVIDIA资料来源:NVIDIA
表2:B200组网服务器与交换机对应关系
计算节点数 服务器数量 GPU数量 IB交换机数 量(个) 网线数量(条)
(个) (个) (个) Leaf Spine Leaf-服务器 Spine-Leaf
1 31 248 8 4 252 256
2 63 504 16 8 508 512
3 95 760 24 16 764 768
4 127 1016 32 16 1020 1024
数据来源:NVIDIA、开源证券研究所
2.6.3、算力集群Scaleup持续,机柜内多GPU互联需求增长拉动铜缆需求
AIGC发展浪潮下,算力集群规模需要持续扩张以支持AI模型参数规模持续增长,单算力节点持续Scaleup,单机柜内算力卡数量增长带来大量短距离互联需求,英伟达GB200NVL72方案中,单机柜内部72个GPU芯片通过18个NVswitch交换芯片连接,通过连接超5000根NVLink铜缆实现72个GPU之间高效互联,持续拉动对DAC、ACC、AEC铜缆需求。