
大模型加速新一轮AI算力储备。GPT的强势离不开人工智能算法的升级和自然语言处理的进一步发展,而算力又是这两种技术的底层发动机。随着神经网络的复杂化以及训练数据的进一步增加,处理器对于算力的需求也进一步增长,数据显示,全球AI算力需求从2012年到目前已增长超过30万倍。
AI芯片是算力的硬件基石,2021-2025年我国AI芯片市场增速预计为42.9%,将快于全球市场增速。按照技术架构,AI芯片可分为GPU、FPGA、ASIC及类脑芯片;按照其在网络中的位置,AI芯片可分为云端AI芯片、边缘及终端AI芯片;按照其在实践中的目标,AI芯片可分为训练芯片和推理芯片。随着人工智能下游需求的爆发,AI芯片迎来快速发展,据预测,2025年我国AI芯片市场规模将达1780亿元,较2022年增长近100%,2021-2025年我国AI芯片市场规模CARG为42.9%,快于同期全球市场规模增速(32.1%)。
英伟达新一代AI芯片HGX H200正式登场。当地时间11月13日,在2023年全球超算大会(SC23)上,英伟达正式发布HGX H200。H200在生成式人工智能、大语言模型(LLM)、高性能计算(HPC)方面取得重大进展。(1)突破内存和带宽的瓶颈:首款搭载HBM3e的GPU,基于NVIDIA Hopper架构,拥有141GB的内存(较H100内存提升80%),显存带宽4.8TB/秒(较H100的3.35TB/s提升40%)。(2)推理速度和能效的提升:H200在大模型Llama 2、GPT-3.5的输出速度上分别是H100的1.9倍和1.6倍;对比H100推理能耗直接减半,经济效益更强。