
人工智能存储端,HBM仍然供应紧俏,推动存储市场回暖。2024年,从ChatGPT到Sora,生成式AI掀起的算力竞争,仍在推动着存力技术不断演进和迭代,使得存储芯片市场迎来了整体复苏的现象。SK海力士、三星和美光科技三大巨头不断扩产,但HBM供给仍然不足。三大厂商对HBM和DDR5的需求信心十足,且已将投资和产能主要转向HBM和DDR5的生产。
美光量产HBM3E,获英伟达订单支持。根据Techweb3月4日报道,美光宣布已开始量产其HBM3E高带宽内存解决方案。英伟达H200 Tensor Core GPU将采用美光8层堆叠的24GB容量HBM3E内存,并于2024年第二季度开始出货。美光HBM3E引脚速率超过9.2Gb/s,提供超1.2TB/s的内存带宽,美光HBM3E功耗比竞品低约30%,美光HBM3E目前提供24 GB容量,使数据中心能够无缝扩展其人工智能应用。当地时间3月20日,美光科技公布2024财年第二财季报告,第二财季调整后每股收益0.42美元,调整营收58.2亿美元,调整后运营收益2.04亿美元,调整后毛利润率20%。美光财报超预期彰显AI需求下的存储机遇,美光HBM产品有望在2024会计年度创造数亿美元营业额。Mehrotra表示,美光今年HBM产能已销售一空、2025年绝大多数产能已被预订;另外预期2024年DRAM、NAND产业供给都将低于需求。
三星首秀36GB HBM3E,英伟达H200 AI加速卡二季度出货。在3月19日NVIDIA GTC 2024技术大会上,三星首次公开展示全球首款36GB超大容量的新一代高带宽内存HBM3E,据韩国alphabiz消息,英伟达最快将从9月开始大量购买三星电子的12层HBM3E,后者将向英伟达独家供应12层HBM3E。三星HBM3E采用了24Gb颗粒、12层堆叠(12H),从而将单颗容量做到史无前例的36GB,带宽也提升至1280GB/s,相比前代8H HBM3容量、带宽都提升了50%,垂直密度则增加了超过20%。NVIDIA H200 AI加速卡将首发采用三星36GB HBM3E,只需要八颗,就能达成6144-bit的位宽、216GB的容量,从而超过192GB HBM3内存的AMD Instinct MI300X。H200还支持四路、八路互连,因此单系统的HBM3E内存容量可以达到864GB、1728GB。3月19日,三星电子半导体业务CEO庆桂显在LinkedIn上宣布在美国和韩国成立三星半导体AGI计算实验室,专注于开发用于大型语言模型的芯片,重点是推理和服务应用,以极低的功耗和成本提供更强的性能支持大模型。3月21日,三星电子DS(设备解决方案)部门宣布,计划今年底明年初推出采用LPDDR内存的AI芯片Mach-1。Mach-1芯片已完成基于FPGA的技术验证,正处于SoC设计阶段。Mach-1芯片基于非传统结构,可将片外内存与计算芯片间的瓶颈降低至现有AI芯片的1/8。