
2.3、DPU有望成为第三大支柱
为CPU减负,DPU(DataProcessingUnit)加速数据中心网络传输性能。AI服务器集群训练和推理引发高流量网络需求,进而增加对网络接口带宽的需求,网络架构的复杂化也提高了网络功能处理的难度。服务器引入的DPU(数据处理器)
分担了网络、存储、操作系统中不适合CPU的高性能数据处理任务,提升数据处理能力并释放CPU算力,因此与CPU、GPU一起成为英伟达三大主力芯片。根据赛迪顾问预测,2025年全球DPU市场将由2022年的74.6亿美元增长至2025年的245.3亿美元,对应CAGR为48.7%。
图18、2020-2025E全球DPU市场规模(亿美元,%)
资料来源:赛迪顾问(含预测),兴业证券经济与金融研究院整理
SoC技术路线将成为DPU最佳方案。DPU目前主要有ASIC、FPGA和片上系统
(SoC)三种实现方式。当中,ASIC具备高性能、低功耗、低成本等特性,但其在预定义范围内可编程性较低,灵活性一般,限制了其向新应用场景开拓的能力;基于FPGA的技术路线具有非常高的灵活性和可编程性,在足够时间和成本预算支持下可以相对有效地支持几乎所有功能,但其价格昂贵、功耗较高、芯片面积较大;SoC技术路线具备可编程、高灵活性等特征,其核心是通过堆叠处理器核来提高可编程性,实现整体性能提高的同时降低成本。随着AI大语言模型训练和推理对上游算力需求的增加,云厂商对于DPU的需求也在不断上升。