
2.3、强化AI产品壁垒,软硬件两端持续迭代
硬件:频发芯片新品,AI算力性能倍增
随着AI应用持续深化,大模型推理算力需求加速扩张。据中国信息通信研究院测算,2022年全球计算设备算力总规模达到906EFlops,同比增长47%,其中智能算力规模占比接近50%,并预计未来�年全球算力总规模将以超过50%的速度增长。面对持续增加的算力需求,近年英伟达发布A100、H100、H200等多款产品。
A100:2020年5月15日发布,基于Ampere架构和第三代Tensorcore,该芯片使执行速度提高一倍,算力较V100产品大幅提升。
图12、2017-2022年全球算力规模及增速图13、A100芯片的执行速度大幅提升
资料来源:中信院,兴业证券经济与金融研究院整理资料来源:机器之心,兴业证券经济与金融研究院整理
H100:2022年3月23日发布,该产品配备第四代TensorCore和Transformer引擎,能够减少内存占用并提高性能,同时保持大型语言模型的准确性。与上一代产品相比,H100可为多专家模型提供高9倍的训练速度。H100加速性能出色,
加之全球算力资源紧俏推动其价格持续提升。
资料来源:英伟达官网,兴业证券经济与金融研究院整理资料来源:英伟达官网,兴业证券经济与金融研究院整理
H200:2023年11月14日发布,生成式AI性能实现跃升。作为首款搭载HBM3e
显存类型的GPU,H200拥有141GB超大容量,带宽达4.8TB/s。相较于H100,H200芯片在Llama2模型推理性能上提速90%,而总拥有成本和能耗减半。据公司官网,H200将于2024年第二季度上市。11月16日微软宣布其将在云服务中率先部署H200芯片。