
AI芯片HBM用量与规格持续提升,DRAM产能挤压进一步加剧。根据TrendForce的数据,26年全球AI服务器出货量将实现20%以上的同比增长,带动AI芯片出货量同步增加。与此同时,全球AI芯片厂商所使用的HBM规格也同步升级。AMD的AI芯片将全部使用12-Hi堆叠的HBM3e,谷歌的TPU系列将从8-Hi堆叠的HBM2e往12-Hi堆叠的HBM3e升级,AWS的Trainium系列同样往更高堆叠层数的HBM3e升级,而英伟达下一代Rubin芯片则将开始使用HBM。AI芯片出货量增加与HBM规格升级,导致HBM在传统DRAM产能中的占比进一步提升,26年HBM在全球DRAM产能中的占比将从25年的19%继续提升到23%。