您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。全球服务器出货量及预测(万台)

全球服务器出货量及预测(万台)

分享
+
下载
+
数据
全球服务器出货量及预测(万台)
数据
© 2026 万闻数据
数据来源:转引自艾媒数据中心,华创证券,IDC
最近更新: 2023-06-29
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

图表22全球服务器出货量及预测(万台)图表23全球AI服务器出货量及预测(万台) 2000 1800 1600 1400 1200 1000 800 600 400 200 0

1878.120%

1470.4

15%

10%

5%

0%

-5%

300.0

200.0

100.0

0.0

202120222023E2024E2025E2026E

全球服务器出货量及预测(万台)yoy

全球AI服务器出货量及预测(包含搭载GPU、FPGA、ASIC等,万台)

资料来源:IDC,转引自艾媒数据中心,华创证券资料来源:观研天下、集邦咨询,华创证券

服务器市场更加追求芯片的高性能和高稳定性。人工智能应用的快速发展正在显着改变信息的消费、移动和处理方式。在强调能效的同时增加内存带宽对于进一步支持云、边缘和端点的广泛行为分析和神经网络训练至关重要。随着深度学习等AI算法的发展,AI服务器对计算能力和内存带宽的要求越来越高。GDDR逐渐达到极限,每秒每增加1GB的带宽所需要的电量剧增,NVIDIA和AMD等厂商逐渐开始使用HBM(高带宽存储)。HBM是DRAM的一种新技术,它通过3D堆叠技术将多个DDR垂直堆叠在一起,形成一个高度集成的内存模组,同时与CPU/GPU合封,使得HBM内存芯片具有更大的密度和更短的电路路径,能够提供更高的内存带宽和更低的延迟,可以显著提高深度学习等AI算法的计算性能和效率。此外,与GDDR5相比,在相同数量显存下,HBM产品大小仅仅是GDDR5的6%,并且每瓦带宽是其3倍以上。

AI服务器对DRAM和NAND的需求飙升。传统封装技术和晶圆级封装技术愈加成熟,为单一封装下的高密度NAND和DRAM应用提供了巨大的帮助。DRAM方面可以通过将多颗HBM组合封装,使得系统中总DRAM容量达到128GB甚至更高,有助于

DRAM整体带宽性能得到突破;NAND方面存储厂商通过将多颗NANDFlash裸片堆叠封装,构成高达10TB及以上的企业级SSD产品,加速取代服务器领域的HDD应用,据SK海力士测算,2030年数据中心中SSD占比有望达到55%。据美光测算,AI服务器中DRAM数量是传统服务器的8倍,NAND数量是传统服务器的3倍。

60%

50%

40%

30%

20%

10%

0% 2020

数据中心中SSD的使用占比

2030E

资料来源:AMD资料来源:SK海力士,转引自CFM闪存市场,华创证券

HBM产品不断迭代,市场规模持续扩容。自2014年与AMD联合开发了全球首款硅通孔HBM产品至今,SK海力士已迭代升级出4代HBM产品,性能和容量持续提升。根

据Omdia数据,2020年全球HBM市场规模为4.58亿美元,预计2025年市场规模将达到25亿美元,年复合增长率高达40.38%。