
(1)AI服务器:AI模型日渐复杂,出货量+搭载容量有望双增。TrendForce预计至2026年AI服务器出货量有望达22.5万台,CAGR(2022-2026)有望达11.6%,增速可观。未来随着AI服务器出货量的持续增长,存储器需求有望高增。
以现阶段而言,Server DRAM普遍配置约为500~600 GB左右,而AI服务器在单条模组上则多采64~128 GB,平均容量可达1.2~1.7 TB,且该容量未来有望持续增长,达到2.2~2.7 TB,按中值计算的增长率达68.97%。Enterprise SSD方面,未来AI服务器所需的平均容量有望实现翻倍,增长至8TB左右。HBM用量方面,而相较于一般服务器而言,AI服务器增加了GPGPU的使用,以配置4或8张NVIDIA A100 80GB计算,HBM用量将达到320~640GB。未来在AI模型逐渐复杂化的趋势下,将刺激产生更多的存储器用量,并同步带动Server DRAM、SSD以及HBM的需求成长。
(2)AI手机:AI手机元年已至,出货量有望高速提升。Counterpoint表示2024年是生成式AI智能手机元年,2024全年出货量将达到1亿部以上。到2027年,预计生成式AI智能手机出货量将达到5.2亿部,占据40%的市场份额,出货量CAGR(2023-2027)有望达83%。容量方面,芯智讯表示,支持终端侧AI大模型功能的智能手机将需要比以前更大容量的内存。即便采用先进的内存压缩技术,要流程的运行130亿参数的AI大模型,智能手机也需要至少16GB的内存容量,如要运行更大规模的330亿参数的AI大模型,内存容量就需要进一步提升到20GB以上。