
根据AI大模型训练、推理两大应用场景划分,AI服务器主要有训练型与推理型两类,其中训练型AI服务器算力要求极高,多数部署于云端,推理型AI服务器则对算力无太高需求,主要部署于云端与边缘侧。
产业链环节中,AI服务器上游为服务器零部件,包括芯片、PCB、电源、散热模组等;中游为整合组装,将芯片组装进服务器硬件中,并增加必要的网络、存储设备,形成完整的AI服务器解决方案;AI服务器的下游客户广泛,包括互联网厂商、运营商、制造业、政府、金融、医疗等行业。当前AI服务器市场需求(尤其是高阶AI服务器)动能主要来自大型CSP,包括微软、谷歌、亚马逊、Meta、CoreWeave等美系厂商,以及BBAT(字节跳动、百度、阿里巴巴、腾讯)等国内厂商。
服务器领域中游环节“玩家”众多,大致可以分为ODM厂商与品牌服务器厂商。服务器相关组件准备完成后,将由ODM厂商进行组装代工,再送至品牌服务器厂商处销售,或者是ODM厂商不通过品牌服务器厂商直接与下游(通常是CSP)客户合作,根据客户的需求进行定制化生产。
其中,ODM代表厂商包括广达、工业富联、英业达、纬创、Supermicro等,它们与云端业者、上游芯片厂商深度绑定,有稳定的供应链、快速交付能力、较低售价等优势。基于低成本和快速部署服务器以建设大规模数据中心的考量,近年云端业者与ODM厂商合作日益频繁。
品牌厂商方面,AI服务器代表厂商包括戴尔、HPE、甲骨文、惠普、联想、浪潮信息、新华三、宁畅、超聚变等,拥有服务器方案自主设计能力与核心技术专利,此前委托ODM代工厂商生产标准化服务器产品,再对外进行销售,不过随着云计算、AI需求不断增加,部分品牌服务器厂商也逐渐开始生产定制化产品,与ODM厂商形成了既合作又竞争的关系。
各大云服务商不断加码对AI相关投入,算力竞赛推动硬件基础设施不断升级扩容。随着AI的飞速发展,各大云服务商不断加码对AI相关投入,推动数据中心基础设施的不断升级扩容。据Canalys统计,2023年,全球云基础设施服务总支出增长