您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。2022-2026年全球AI服务器出货量预估(千台)

2022-2026年全球AI服务器出货量预估(千台)

分享
+
下载
+
数据
2022-2026年全球AI服务器出货量预估(千台)
数据
© 2026 万闻数据
数据来源:TrendForce,中航证券研究所整理 资料来
最近更新: 2023-07-27
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

•AI服务器存储容量显著高于一般服务器,有望带动存储器需求成长。ChatGPT风靡之下,AI效应正持续发酵,并不断渗透至千行百业,AI服务器与高端GPU需求不断上涨。根据TrendForce,预估2023年AI服务器(包含搭载GPU、FPGA、ASIC等)出货量近120万台,年增38.4%,占整体服务器出货量近9%。现阶段而言,Server DRAM普遍配置约为500~600GB左右,而AI服务器在单条模组上则多采64~128GB,平均容量可达1.2~1.7TB之间。以EnterpriseSSD而言,由于AI服务器追求的速度更高,其要求优先满足DRAM或HBM需求,SSD在传输接口上会为了高速运算的需求而优先采用PCIe 5.0。相较于一般服务器而言,AI服务器多增加GPGPU的使用,因此以NVIDIAA100 80GB配置4或8张计算,HBM用量约为320~640GB。未来在AI模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动ServerDRAM、SSD以及HBM的需求成长。