您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。下游客户AI PC产品发布预期

下游客户AI PC产品发布预期

分享
+
下载
+
数据
下游客户AI PC产品发布预期
数据
© 2026 万闻数据
数据来源:广发证券发展研究中心,Canalys
最近更新: 2024-01-21
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

PC客户响应积极,搭载AI PC CPU的多款AI PC预计年内发布。AI PC成PC重要升级方向。根据Canalys提出的围绕硬件的初期对AI PC的狭义定义,AI PC需要具备专用芯片组/块以承载端侧的AI运行负载,即搭载AI PC CPU的PC可被称为AI PC。

目前一方面是Intel和AMD发布的x86CPU,如Intel的MeteorLake,以及AMD在2023年12月发布的最新Ryzen 8040 AI PC处理器(代号Hawk Point),另一方面是高通为代表的ARM内存CPU SnapdragonX Elite预计于2024年发布。目前下游厂商相应积极,并计划与Intel和AMD的新CPURoadmap同步推出全新AI PC。如MeteorLake发布后,联想、戴尔、华硕等PC三家厂商于2023年12月发布了Thinkpad X1 Carbon AI、灵越13 Pro、灵耀14等各家首款AI PC,惠普和也在CES 2024上发布了Spectre x360和未来轻薄环保电脑16等AI PC。根据Canalys统计,PC厂商预计在2024年推出多款搭载Intel、AMD、高通CPU的AI PC产品,及时为用户提供差异化体验。

AI PC运行本地大模型对容量和速率都提出更高要求。根据联想提出的AI PC两个阶段,目前各大厂商仍处于AI Ready阶段,在硬件端进行升级以符合未来AI应用的要求,真正AI On阶段的设备需要配备经压缩的本地大模型。运行本地大模型对内存需求提升主要体现在:(1)内存容量提升;(2)内存速率提升。根据我们测算,在FP32数据格式下,每10亿参数的大模型需要占用约4GB内存。若全精度加载模型参数达70亿的LLaMa大模型,对应需约26GB内存。因此,本地运行大模型的AI PC对内存容量需求不断提升。对此微软也制定了AI PC对子硬件规格,其中对内存配置要求为最低16GB。此外,内存读取速度也决定了大模型的响应时间,因此AI PC要对更高的内存传输速率。

读取速率达到6400MT/s时,需新增1颗CKD芯片。根据JEDEC定义,当DDR5速率超过6400MT/s时,高速信号面临严重的信号失真及干扰、时钟不同步、命令执行可靠性差等问题,CKD用于缓冲来自PC CPU的高速内存时钟信号,并将之驱动至多个DRAM,以确保不同DRAM芯片在相同时钟边缘接收信号。时钟驱动功能长期以来集成于寄存缓冲器(RCD)应用于服务器端。随着DDR5传输速率和时钟信号频率的升高,PC端也需要一颗专用时钟驱动芯片来对内存模组上的时钟信号进行缓存再驱动,以满足信号完整性、可靠性要求。根据JEDEC定义的用于服务器内存模组的内存接口芯片RCD(寄存缓冲器)和CKD规格文件来看,两类芯片有一定的相似之处,CKD的架构更为简单,将RCD的双通道减少至单通道,同时在核心区域中去掉了ControlLogic功能,在某种程度上,可以认为CKD为根据PC端DDR5需求定义的精简版RCD。因此,我们认为,具备CKD研发和认证能力的厂商也主要为内存接口芯片厂商。