
请务必阅读正文之后的信息披露和免责申明
资料来源:中盛智库公众号、智东西公众号、天风证券研究所 33
专用芯片:AWS发布AI服务器Trn2UltraServer,看好AIASIC市场份额持续提升
•ASIC在性能和成本方面通常比通用芯片更为优化,同时为降低对英伟达GPU的依赖,Google、AWS、微软、Meta4
大CSP都积极投入自研芯片。GPU虽在平行运算有强大优势,但随着AI应用的多样化和专业化,ASIC能根据特定任务需求订制优化,可实现更高的运算效率、较佳的能耗表现,费用也可能比GPU低。目前,云端巨头皆投入ASIC芯片开发,包括Google的TPU,AWS的Trainium等。据Marvell,2023年ASIC仅占数据中心加速计算芯片的16%,其规模
约66亿美元,预计2028年将达到429亿美元,2023-2028年CAGR达45%。
•AWS发布AI服务器AWSTrn2UltraServer和AmazonEC2Trn2实例,基于ASIC的实例性价比超越基于GPU的实例。AWS全面推出由Trainium2芯片驱动的AmazonEC2Trn2实例,相比当前基于GPU的EC2实例,性价比高出30%~40%。强化版AWSTrn2UltraServer,能支撑万亿参数AI模型的实时推理性能。Trn2UltraServer使用超高速NeuronLink互连,将4台Trn2服务器连接在一起,形成1台巨型服务器。单个Trn2实例结合了16颗Trainium2芯片,可提供20.8PFLOPS。
图:2020-2025全球ASIC市场规模预计图:Trn2UltraServer实例
服务器:24Q2数据中心业务指引强劲需求,高阶AI服务器扩张
•高阶AI服务器需求大幅扩张,但其中NVIDIA高阶AI服务器份额下降。2023年高阶AI服务器出货量达19.96万台,Digitimes预计2024年出货规模将进一步扩张至54.3万台。2023年高阶AI服务器所采用的加速器中,约7成采用NVIDIAGPU,出货量达13.9万台,产品形态以采用自家NVLink技术,GPU间互联速度达600GB/s以上的HGX版本为主。2024年超威及大型云端从业者自行研发的AI服务器机种成长力道较高,Digitimes预期采用NVIDIAGPU机种占比将降至58%,出货量则将增至31.5万台。