
AI算力芯片以GPU为主,NPU成长迅速。AI算力芯片是AI服务器的核心,AI算力芯片分为通用型AI芯片和专用型AI芯片,通用型AI芯片主要包括CPU、GPU、DSP、FPGA等,专用型AI芯片主要包括TPU、NPU、ASIC等。根据的IDC数据,2021年中国人工智能芯片中,GPU占据89%的市场份额,NPU占据9.6%的市场份额,NPU增速较快,NPU芯片设计逻辑更为简单,常用于云端、边缘端和终端的模型推理,并生成结果,在处理推理工作负载时,能显著的节约功耗;而ASIC和FPGA占比较小,市场份额分别为1%和0.4%。
GPU是AI服务器算力的基石,有望畅享AI算力需求爆发浪潮。GPU是AI服务器算力的基石,随着AI算力规模的快速增长将催生更大的GPU芯片需求。根据Verified Market Research的数据,2020年全球GPU市场规模为254亿美元,预计到2028年市场规模将达到2465亿美元,2020-2028年复合增速为32.8%。由于软件生态优势,英伟达主导全球GPU市场,根据TechInsights的数据,2023年全球数据中心GPU总出货量达到了385万颗,相比2022年的267万颗同比增长44.2%,其中英伟达以98%的市场份额稳居第一。