
图表22:AI产业链全景图
来源:艾瑞咨询、国金证券研究所
(1)上游对应于AI产业链的基础层,主要包括模型生产工具、算力(提供底层支持,包括AI芯片、服务器等)、数据(数据采集、标准、分析),结合当前产业发展和应用落地情况,我们预计:
基础层方面,与大模型相关的基础设施具备更高的确定性。这主要是因为大模型正处在渗透率逐步拔高的阶段,类比智能手机时代通信基站的建设,大模型相关基础设施的建设是当前重点。根据大模型之家的调研,目前各行业对于大模型的接受程度和渗透速度存在差异,6.4%的企业表示无意涉及人工智能领域,46.3%的企业表示仍处在观望阶段,12.4%
的企业表示全面拥抱人工智能。在ChatGPT打开了大模型的商用场景后,预计更多企业会拥抱大模型,大模型的基础设施建设将是必不可少的一环,也是能够长期受益于应用市场不断普及的行业。具体来看,数据、算力、服务器等细分领域或将持续受益于应用端的不断普及。大模型的研发囊括了底层算力、网络、存储、大数据、AI框架、AI模型等复杂技术,数据、网络、算力是大模型底层基础设施的“铁三角”,目前国内发布的10亿参数
规模以上的大模型已超80个,从产业逻辑来看,数据、算力、服务器板块将持续受益于应用端的不断普及。
在数据方面,据艾瑞咨询统计与预测,2022年我国AI基础数据服务市场规模(含数据采集与标注)为31亿元。受自动驾驶、对话机器人、消费硬件等AI应用,对图像、语音和文本数据集及定制化数据服务的需求上涨影响,2027年相应规模可达到79亿元,2022-2027年的相关CAGR=20.6%,整体增速呈现稳步提升的趋势。
在算力方面,随着ChatGPT为代表的生成式人工智能大语言模型的发布,催生了AI算力需求的激增。由于大规模GPU集群对于互联带宽提出了更高要求,拉动了包括光模块在内的通信产品需求的显著增长,并加速了光模块向800G及以上产品的迭代。根据LightCounting预测,2023年全球光模块市场规模增长4.34%,2024-2027年4年CAGR为
11.43%,有望在2027年突破200亿美元。
在服务器方面,由于大模型的参数规模不断增长,意味着算力负担越重,AI服务器作为算力的核心,其市场需求量将不断增加。TrendForce不断上修AI服务器出货量,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等)出货量近120万台,年增38.4%,占整体
服务器出货量近9%,至2026年将占15%,同步上修2022-2026年AI服务器出货量年复合成长率至22%。我们认为AI创新引发的算力“军备竞赛”将推动AI服务器超预期渗透。