
图表22全球服务器出货量及预测(万台)图表23全球AI服务器出货量及预测(万台) 2000 1800 1600 1400 1200 1000 800 600 400 200 0
1878.120%
1470.4
15%
10%
5%
0%
-5%
300.0
200.0
100.0
0.0
202120222023E2024E2025E2026E
全球服务器出货量及预测(万台)yoy
全球AI服务器出货量及预测(包含搭载GPU、FPGA、ASIC等,万台)
资料来源:IDC,转引自艾媒数据中心,华创证券资料来源:观研天下、集邦咨询,华创证券
服务器市场更加追求芯片的高性能和高稳定性。人工智能应用的快速发展正在显着改变信息的消费、移动和处理方式。在强调能效的同时增加内存带宽对于进一步支持云、边缘和端点的广泛行为分析和神经网络训练至关重要。随着深度学习等AI算法的发展,AI服务器对计算能力和内存带宽的要求越来越高。GDDR逐渐达到极限,每秒每增加1GB的带宽所需要的电量剧增,NVIDIA和AMD等厂商逐渐开始使用HBM(高带宽存储)。HBM是DRAM的一种新技术,它通过3D堆叠技术将多个DDR垂直堆叠在一起,形成一个高度集成的内存模组,同时与CPU/GPU合封,使得HBM内存芯片具有更大的密度和更短的电路路径,能够提供更高的内存带宽和更低的延迟,可以显著提高深度学习等AI算法的计算性能和效率。此外,与GDDR5相比,在相同数量显存下,HBM产品大小仅仅是GDDR5的6%,并且每瓦带宽是其3倍以上。
AI服务器对DRAM和NAND的需求飙升。传统封装技术和晶圆级封装技术愈加成熟,为单一封装下的高密度NAND和DRAM应用提供了巨大的帮助。DRAM方面可以通过将多颗HBM组合封装,使得系统中总DRAM容量达到128GB甚至更高,有助于
DRAM整体带宽性能得到突破;NAND方面存储厂商通过将多颗NANDFlash裸片堆叠封装,构成高达10TB及以上的企业级SSD产品,加速取代服务器领域的HDD应用,据SK海力士测算,2030年数据中心中SSD占比有望达到55%。据美光测算,AI服务器中DRAM数量是传统服务器的8倍,NAND数量是传统服务器的3倍。
60%
50%
40%
30%
20%
10%
0% 2020
数据中心中SSD的使用占比
2030E
资料来源:AMD资料来源:SK海力士,转引自CFM闪存市场,华创证券
HBM产品不断迭代,市场规模持续扩容。自2014年与AMD联合开发了全球首款硅通孔HBM产品至今,SK海力士已迭代升级出4代HBM产品,性能和容量持续提升。根
据Omdia数据,2020年全球HBM市场规模为4.58亿美元,预计2025年市场规模将达到25亿美元,年复合增长率高达40.38%。