您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。AI 算力产业链

AI 算力产业链

分享
+
下载
+
数据
AI 算力产业链
数据
© 2026 万闻数据
数据来源:CSDN,国投证券研究中心
最近更新: 2024-02-29
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

芯片是AI算力的主要载体,AI产业浪潮增加了对算力的需求,直接带动对高性能芯片的需求。芯片是AI产业发展的核心硬件,是AI算力的主要载体。据摩尔定律,每18-24个月集成电路上的晶体管集成度增加一倍,即芯片性能大约每18-24个月增加一倍。AI大模型训练和推理增加了对算力的需求。据OpenAI测算,2012年以来,AI训练所使用的算力每3-4个月增长一倍。AI大模型计算带来的算力需求增长已超过摩尔定律,这使得高性能芯片需求大幅增加。

英伟达在数据中心GPU市场中,市占率达92%。英伟达早期专注于图形芯片(GPU)设计业务,随着公司技术与业务发展,已成长为一家提供全栈计算的人工智能公司。GPU最初被设计用于渲染图形,2006年英伟达推出CUDA计算架构,使GPU的平行运算功能拓展至科学研究领域。GPU逐步在数据中心中被发展成为更为通用的并行处理器,对生成式AI所需要的深度学习计算至关重要。英伟达也因而在GPU计算领域长期占据领先地位。据IOTAnalytics,2023年,在数据中心GPU市场中,英伟达占据92%的市场份额。

生成式AI浪潮下,英伟达数据中心业务迎来加速增长。Q4FY24公司总营收221.0亿美元,同比+265%;其中数据中心业务贡献184.0亿美元,同比+409%。英伟达GPU是生成式AI计算基础设施的重要构成部分,随着全球各地的公司从通用计算向加速计算和生成式AI转型,GoogleCloud、AmazonWeb Services等大批云服务提供商,Amdocs、Dropbox等领先的人工智能公司与英伟达开展业务合作。

英伟达新产品推出升级迭代,性能进一步飞跃。2022年3月,英伟达推出首款基于Hopper的GPU NVIDIA H100,具有革命性的Transformer引擎和高度可扩展的NVIDIA NVLink互连等突破性功能,于2022年三季度开始供货。NVIDIA的第四代DGX系统DGX H100配备8个H100 GPU,能够以新的FP8精度提供32 petaflops的AI性能,提供满足大型语言模型、推荐系统、医疗保健研究和气候科学的大规模计算需求的规模。据海外研究机构Omdia预测,预计Q2FY24公司H100 GPU出货量约30万个,每年潜在出货量120万个。2023年11月,英伟达推出配备全新NVIDIA H200 Tensor Core GPU的NVIDIA HGX™H200,为首款配备HBM3e内存的GPU,可处理生成AI和高性能计算工作负载的海量数据。NVIDIA H200性能进一步飞跃,以每秒4.8TB的速度提供141GB内存,与前身NVIDIA A100相比,容量几乎翻倍,带宽增加2.4倍,预计将于2024年二季度开始供货。下一代旗舰产品B100预计将在2024年发布。