AI时代,被GPU抢尽风头的CPU,或许正在悄悄迎来一场属于自己的爆发。
据追风交易台,5月5日,瑞银全球研究团队发布了一份针对美国半导体行业的深度研报。面对投资者关于“代理式AI将如何影响服务器CPU市场”的密集提问,分析师Timothy Arcuri等人通过一系列行业专家访谈并结合自下而上和自上而下两套模型,得出了一个明确的结论:
市场严重低估了AI时代CPU的价值。服务器CPU的潜在市场规模(TAM),将从2025年的约300亿美元,增长至2030年的约1700亿美元,五年涨幅接近5倍。
在过去两年的AI狂热中,GPU抢走了所有的聚光灯。但随着AI从“单纯的对话生成”进化为“自主执行任务的代理(Agent)”,算力的瓶颈正在悄然转移。
要理解CPU市场的爆发,首先要理解代理式AI与传统AI的工作负载差异。
在传统的AI训练和基础推理阶段,GPU是绝对的主力。如果把AI算力比作一个工厂,GPU就是流水线上不知疲倦的工人,而CPU则是负责分配任务的经理。在传统模式下,一个经理(CPU)可以轻松管理多个工人(GPU)。
但代理式AI改变了游戏规则。代理式AI不仅需要生成文本,还需要进行任务编排、工具调用(例如在沙盒虚拟机中执行代码)、文件检索等。这意味着“经理”的工作量呈指数级上升。
分析师在专家访谈中获取了极具冲击力的数据:
工作量重心的转移: 专家指出,“在传统的AI工作负载中,70-80%的算力消耗在推理本身(GPU)上;但在代理式推理中,这个比例反转了,70-80%的工作量转移到了CPU上。”
核心配比的暴增: 传统的AI训练中,每个GPU通常只需配备8-12个CPU核心;在基础推理中,需要16-24个核心;而在代理式AI中,每个GPU需要配备80-120个CPU核心。 这相当于,同样一颗GPU,在智能体场景下需要的CPU核心数是传统训练场景的5-10倍。
并发任务的压力: “一个代理(及其衍生出的每一个子代理)可能需要1-4个CPU核心,而一个复杂的任务可能需要生成10-100个子代理。”
这种底层逻辑的转变,直接打破了过去“重GPU、轻CPU”的算力架构,为CPU市场打开了巨大的增量空间。
基于上述逻辑,该行分析师对服务器CPU的总潜在市场(TAM)进行了重新测算。结果显示,到2030年,该市场规模将达到约1700亿美元。
这个庞大的数字是如何得出的?分析师采用了“自下而上”和“自上而下”两种方法进行交叉验证:
1. 自下而上(Bottom-up)测算: 分析师基于美国超大云服务商(Hyperscalers)的加速器模型预测,到2027年,市场将出货约2300万个加速器(XPU)和约1000万个头节点CPU。随着代理式AI的发展,到2030年,加速器出货量将达到约4000万个。 更重要的是,CPU与GPU的配比率将从目前的1:4,逐渐向1:2甚至1:1靠拢。此外,由于AI应用需要更高核心数和更高频率的芯片,AI CPU的平均售价(ASP)将显著提升。例如,英伟达的144核Grace CPU定价可能在3000至4000美元之间。量价齐升之下,仅AI CPU市场的规模就将达到1250亿美元。
2. 自上而下(Top-down)测算: 分析师参考了英伟达对2030年AI总潜在市场(3万亿至4万亿美元)的预测。推算出2030年将有约4000万个XPU出货。假设每个XPU的平均ASP提升至3000美元,结合1:1或2:1的CPU配比率,同样推导出AI CPU市场规模在1200亿至2000亿美元之间。
分析师将未来的CPU市场划分为三个核心板块:
传统服务器市场: 保持稳定增长,预计到2030年出货量约为4400万台。
AI头节点(Head Nodes): 与GPU机架捆绑,主要负责任务编排和优化GPU利用率。
AI独立机架(Standalone): 纯CPU服务器,专门用于处理代理式AI的工具调用和子代理并发任务。
市场的饼做大了,关键是怎么分。
分析师明确给出排名:ARM是服务器CPU侧最大受益者,其次是AMD,再次是英特尔——但三者均将受益。
2025年,ARM架构在服务器CPU市场的单位份额约为15%。报告预计,到2030年,这一数字将升至40-45%;若以收入口径计算,由于AI CPU的平均售价(ASP)更高,ARM的收入份额将进一步达到50-55%。
ARM的优势在哪里?
该行援引专家观点:ARM架构功耗效率高出约30%,内存效率高出约20-30%,且凭借更小的核心设计,在延迟和成本上具备明显优势。更关键的是,英伟达Grace、AWS Graviton 5(192核)、谷歌等头部超大规模云厂商的自研CPU,几乎清一色采用ARM架构。
该行预计,到2030年,ARM将占据头节点CPU市场75%以上的份额。
但ARM也有短板。报告指出,ARM传统上是单线程架构,同步多线程(SMT)能力是近年才逐步开发的功能;在高核心数场景下,核心间干扰和软件兼容性问题依然是挑战;此外,生态系统成熟度仍有待提升,部分软件栈的完善可能要到2028年前后。
基于上述判断,分析师将ARM的12个月目标价从175美元上调至245美元。截至报告发布前一日(5月4日),ARM股价报203.26美元,维持“买入”评级。
AMD的优势在于高核心数和多线程能力,这与智能体AI对CPU"又要快、又要多"的需求高度契合。
报告援引AMD在2025年11月分析师日的表态:AMD预计服务器CPU市场将从2025年的260亿美元增长至2030年的约600亿美元,其中AI驱动的CPU将占2030年市场的约50%;AMD预计自身在总市场的份额将超过50%。
分析师目前对AMD 2030年的EPS预测为25.27美元,若市场按预期演进,修正后的2030年EPS可达28.14美元,上行空间约+11%。
英特尔的处境相对复杂。
在传统服务器市场,x86架构仍将保持约85%的份额,英特尔在工具调用、存储优化等特定工作负载上仍具优势。但在AI头节点市场,英特尔的存在感正在被ARM快速压缩。
瑞银指出,英特尔正寄望于"Coral Rapids"产品线来缩小与AMD和ARM的差距,但目前来看,AMD和ARM在AI CPU市场的定位更为有利。
不过,英特尔也有一张独特的牌:PC端的溢出效应。随着智能体AI将更多任务推向本地设备执行(Anthropic的Claude Code已在采用这一策略),PC升级周期有望被催化,英特尔将从中受益。
该行对英特尔2030年EPS的修正上行空间约为+7%,是三家中最低的。
报告还深入拆解了一个容易被忽视的细节:智能体AI对CPU的需求,并不是简单地“核越多越好”。
超大规模云厂商在硬件选择上面临一个根本性的取舍:
高核心数CPU:总吞吐量高,能效比好,但时钟频率低,延迟表现较差,且软件扩展能力有限(大多数软件无法高效利用数百个核心)
低核心数、高频率CPU:延迟低、响应快,适合“头节点”角色(负责编排调度、优化GPU利用率)
实际部署中,超大规模云厂商倾向于采用“头节点+大规模计算节点”的分层架构:前者负责低延迟的编排控制,后者负责高吞吐量的并行执行。
这意味着,能提供宽泛SKU组合(覆盖不同核心数、频率和功耗档位)的厂商,比只押注单一“最强”配置的厂商更有竞争力。
瑞银还指出,超大规模云厂商的采购决策核心指标不是峰值性能,而是每瓦特可处理的事务数(transactions per watt),内存配置是首要设计变量。
分析师另外提出了一个值得关注的不确定因素:云端与边缘的计算分工。
早期智能体部署几乎完全依赖云端,但越来越多的系统设计开始将计算推向本地设备——5到10个并行任务可以直接在本地文件和数据上运行,既减少了延迟,又节省了云端算力成本。
瑞银援引专家估算:本地执行的扩展,可能将云端智能体工作负载所需的CPU容量减少约25%。
这意味着,智能体AI对数据中心CPU的拉动倍数,最终可能从5-8倍压缩至约4倍。但与此同时,PC端的CPU需求将被同步拉升,AMD和英特尔均将受益。
~~~~~~~~~~~~~~~~~~~~~~~~
以上精彩内容来自追风交易台。
更详细的解读,包括实时解读、一线研究等内容,请加入【追风交易台▪年度会员】
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。