
AI服务器逆势扩张,加速渗透。自2018年自动驾驶、AIoT与边缘运算等新兴应用驱动下,诸多大型云服务商开始大量投入AI相关的设备建设,TrendForce估计2022年搭载GPGPU的AI服务器年出货量占整体服务器比重近1%,同时2023年随着ChatBOT相关应用的进一步带动,Microsoft、Google等云端服务商都积极投入,根据TrendForce,预估2024年全球服务器整机出货量约1365.4万台,年增约2.05%,其中AI服务器预计出货量约为167.6万台,同比增长约38.7%,占比约12.2%。
AI服务器存储容量较传统服务器大幅提升。TrendForce统计,传统服务的服务器DRAM容量约为500-600GB,而AI服务器平均内存容量达到1.2-1.7TB。对于企业级固态硬盘(SSD),尽管AI服务器由于对速度较高,优先选择DRAM或HBM技术,但是AI服务器仍然需要更大的SSD容量,且PCIe 5.0接口在满足高速计算需求方面更受青睐。此外,AI服务器加速卡还会配备HBM,目前HBM的单服务器使用量约为320-640GB。随着AI模型变得越来越复杂,对服务器DRAM、SSD和HBM的需求将持续增长。
2024年服务器DRAM总比特输出占比预计达40%。自2022年开始,DRAM供应商一直在调整产品组合,将更多产能用于服务器DRAM,同时减少移动端DRAM产能。
主要是由于服务器DRAM市场需求前景旺盛,以及2022年移动端DRAM市场供应过剩。进入2023年,智能手机出货量增长预期仍然比较保守,而受AI和HPC相关新应用推动,服务器DRAM容量持续增长。因此DRAM供应商或继续扩大服务器DRAM在产品组合中的份额。根据TrendForce对2024年DRAM行业总比特输出分布的分析,服务器DRAM预计占比约为40%,超过移动端DRAM 36%的比重。