
调研纪要
核心判断:这轮 CPU 紧缺,不是简单的“服务器卖得好”。真正的变化在于,AI 从训练走向推理后,CPU 不再只是给 GPU 跑个操作系统,而是开始承担调度、比对、校正和复杂计算的角色。需求在变重,供给却没法快速扩,价格自然就硬了。
CPU不再只是AI服务器里的“配角”
过去讲 AI 硬件,市场最容易盯着 GPU、HBM、光模块和交换机。CPU 往往被放在后面,像个不太起眼的控制器。说白了,大家觉得 GPU 才是算力主角,CPU 只是把系统跑起来。
但这次调研给出的信号很明确:这个理解已经有点老了。训练时代,CPU 的参与度确实没那么高,更多是把数据跑一遍、灌进去、存起来,核心压力集中在 GPU 和显存上。可到了推理时代,尤其是复杂推理、深度思考、多轮交互这些场景,CPU 的角色明显变重。
专家提到,推理过程中 CPU 不只是决定数据放进 HBM 还是 DDR5,它还要负责数据来源检测、结果比对、二次判断、校正,以及更复杂的科学运算。GPU 更像并发做大量简单运算的机器,CPU 则负责更高层级的调度和判断。这个差别很关键。
所以当前 AI 服务器的 CPU/GPU 配比正在变化。过去一台训练服务器里,32 核 CPU 搭配 8 张卡比较常见,甚至有厂商为了极致性价比做到一颗 CPU 对 12 张甚至 24 张卡。现在到了推理场景,主流方案正在往“一颗 CPU 对四张卡”迁移,部分小规模私域场景会用到一比二甚至一比一,但它们还不是主流。
这也是为什么 CPU 需求看起来突然硬了。不是市场突然重新爱上 CPU,而是 AI 推理把 CPU 从后台拉到了前台。
平台迭代:Intel 7 仍是底座,Intel 3 开始接管高端
如果只看产品名称,很容易被绕晕:Sapphire Rapids、Granite Rapids、Sierra Forest、Diamond Rapids,还有各种 P-core、E-core 路线。但从调研信息看,真正影响供需和价格的主线并不复杂。
目前服务器 CPU 主要分两层。第一层是 Intel 7,也就是成熟 10nm 级别制程,对应大量传统服务器和中低端服务器需求。第二层是 Intel 3,接近 4-5nm 水平,主要用于新一代更高端的至强产品,尤其是 AI 服务器和高核数服务器。
专家给出的结构是:当前约 70% 的 CPU 出货仍在 Intel 7 制程,约 30% 切到 Intel 3。Intel 3 这部分主要面向 AI 服务器和高端客户,Intel 7 则覆盖传统服务器和部分不需要最先进制程的 AI 服务器。
这就解释了一个现象:服务器 CPU 的“紧缺”并不是所有型号都一样紧。真正紧的是高端新品、先进制程、高核数产品,以及能配合 AI 推理服务器升级的那部分 CPU。传统服务器用的成熟制程 CPU 也受益,但逻辑没那么锋利。
新一代 Diamond Rapids 类产品已经开始出货,Q3 订单在五一前基本签完,Q4 订单预计在五月中旬开始谈。专家判断,今年下半年这类新品在出货结构中的占比有望提升到 50% 以上。这个节奏如果能兑现,英特尔在服务器 CPU 的份额确实有机会从去年压力最大的状态里修复。
CPU平台和存储配置,别看名称,看这几个变量
| 变量 | 当前主流状态 | 变化方向 | 投资含义 |
| 制程 | Intel 7仍占大头,Intel 3用于高端 | 高端新品占比提升 | 高端CPU ASP与毛利更强 |
| 核心数 | 32核/64核仍有量,96核/128核上量 | AI推理需要64核以上更稳 | 单核价值下降,多核性价比提升 |
| 内存 | 服务器主流DDR5 4800/6400 | 7200以上目前多数用不上 | 高频内存不是短期瓶颈 |
| 通道 | 中等服务器8通道,高端AI服务器16通道 | AI服务器更偏16通道 | 带动内存条用量和容量配置 |
| 接口 | CXL/PCIe通道冗余较高 | 内存共享池需要CPU调度 | CPU仍是内存池架构的管理核心 |
内存不是越高频越好,真正变化在通道和容量
这次调研里有一个点挺有意思:市场经常讲 DDR5 6400、7200、8400、9200,但在服务器端,真正能用上的并没有那么激进。专家说得很直接,当前多数服务器 CPU 支持到 4800 或 6400 就差不多了,7200 以上很多时候装上也会降频。
所以短期看,服务器 CPU 对存储的拉动,重点不在“频率越来越高”,而在“通道更多、容量更大、配置更偏满”。中等服务器八通道就够了,通常四条内存条;高端 AI 服务器更常见十六通道,DDR5 单条可双通道,所以往往对应八条内存。
也就是说,今年相较去年,CPU 出货增长只是第一层变量;更重要的是,新平台从八通道更多转向十六通道,单台服务器对内存条数量和容量的消耗也会上升。这个对存储链条是实实在在的拉动。
不过这不代表存储会无脑紧缺。专家也提到,去年部分客户提前备货,并不一定已经全部上线;今年 AI C 端活跃度也有波动,不少个人用户体验过之后活跃度下降。所以存储端的真实紧张程度,要看 AI 服务器持续拉货,而不是只看 CPU 平台理论配置。
还有一个值得盯的方向是内存共享池。调研中提到,内存共享池并不是简单插一堆内存就能跑,所有数据调取仍然需要 CPU 管控。客户对 CPU 的需求外化成一句话:核心数越多越好,因为核心越多,能管理的层级越多,共享池利用率也越高。
但如果看接口,短期瓶颈并不在 PCIe 通道。CPU 支持的 PCIe 通道目前冗余度较高,很多场景用一半就不错了。真正影响效率的,是 CPU 架构更新后的反馈速度、低延迟调度,以及长期能耗成本。
供给:不是没人想扩,是扩不动
这轮 CPU 供需最硬的地方,在于供给端不是简单加产线就能解决。专家给出的数据很直观:Q1 服务器端出货约 250 万颗,Q2 已排产约 300 万颗,Q3 接单后预计仍在 300 万颗左右。也就是说,自有服务器 CPU 产线基本已经满产。
目前 300 万颗/季度大致是自有服务器产线的上限。如果把部分代工业务中可挪用的 Intel 7 成熟制程产能转过来,理论上还能多出约 100 万颗/季度,但这部分更多适合传统服务器,不是最紧缺的高端 AI 服务器 CPU。换句话说,400 万颗/季度可能是现有储备被充分挤压后的上限。
消费级 CPU 和服务器 CPU 之间也不能随便转产。它们晶圆切割方式、设备型号、光刻机配置都有差异,消费端本身也有需求,尤其是 AI PC 和换机周期带来的需求。把消费端产能拿来救服务器端,并没有想象中那么简单。
长期看,2027-2028 年的解决路径也更偏技术提升,而不是大规模产能提升。因为对下游客户来说,堆更多服务器意味着基建成本、电力成本、散热成本一起上来;对上游厂商来说,扩产又要牺牲最近一两年的利润,还受光刻机、工程师和资本开支约束。
所以专家的判断很干脆:未来两三年更可能靠单颗 CPU 性能提升,而不是靠数量暴力扩张。这个判断会影响 CPU/GPU 配比,也会影响市场对 CPU 出货量天花板的理解。
价格:涨价不是成本驱动,核心还是供不应求
CPU 涨价这件事,原文里说得比较直白。服务器端价格上,头部年框客户 Q1 并没有吃到全部涨价,主要是在第二轮涨价中承接了大约 15%;非战略客户涨幅更高,大概在 25%-30%。Q4 之前还有再涨 10% 的计划,但节奏会更谨慎,毕竟客户也不喜欢每隔一阵就被涨价。
涨价背后当然有成本因素。新品生产成本大约比老品高 10%,但价格涨幅明显高于成本增幅。也就是说,这不是单纯成本转嫁,而是供需紧张叠加新品结构升级后的定价权释放。
客户为什么能接受?原因也很现实:AI 算力服务本身开始赚钱,单位投入产出的账算得过来。客户觉得花更多钱买新 CPU,换来更高算力、更低单位能耗、更好的服务器效率,这笔账还能打。
不过涨价主要集中在新品和高端产品,老品并不好涨。老平台如果涨价,客户会明显抗拒,因为它带来的性能和能耗改善不够。新平台涨价能被接受,是因为客户愿意为“更高性能 + 更稳定交付 + 更低总拥有成本”买单。
从价格层级看,高端服务器 CPU 单颗可到 9000-10000 美元,但占比不到 10%,毛利可以非常高;中端主力产品大概在 5000 美元附近,占出货约 60%,毛利在 30% 左右;低端传统服务器 CPU 单价在 2000-3000 美元,毛利也不低。真正带来估值弹性的,还是高端和中端新品结构改善。
供需和价格链条怎么理解
| 环节 | 现状 | 后续变化 | 要盯的信号 |
| 服务器出货 | Q1约250万颗,Q2/Q3约300万颗 | 全年目标1200-1300万颗 | Q4订单与18A预期 |
| 产能 | 自有产线基本满载 | 可挪用部分成熟代工产能 | 现有上限或约400万颗/季度 |
| 价格 | 非战略客户涨25%-30% | Q4或再涨10% | 客户接受度和新品占比 |
| 成本 | 新品成本约升10% | 涨价覆盖成本且增厚利润 | 毛利率是否继续扩张 |
| 供需风险 | 高端CPU紧,低端相对缓和 | 技术升级替代扩产 | AI真实活跃度和服务器拉货 |
18A:决定市场信心,但短期不会立刻改写格局
18A 是整个调研里最敏感的变量。专家说得很清楚,18A 现在遇到的核心问题还是良率。对外说法和内部可交货良率之间有差距,目前实际量产可交货良率大约在 65% 左右。内部理想状态是 Q3 冲到 90%,但工程师层面更谨慎,认为 Q4 能达到 90% 就已经很不错。
如果 18A 良率提升顺利,服务器端会优先受益。但它不会马上影响 90% 的市场,只会先影响头部 7%-10% 的高端销售。原因很简单:18A 的产能也不够。即使良率提升到 90%,现有产能也只有约 400 万颗/季度的能力,而且还要在消费端和服务器端之间分配。
所以 18A 的短期意义,不是马上大规模放量,而是提升市场信心。只要它能落地,市场会相信英特尔在先进制程上重新具备追赶 AMD 的能力。股票可能先反应,但真正的出货格局不会一夜之间改变。
14A 则更远一些。专家提到,14A 实验室层面已经成功,但从实验室到量产还有工艺放大的问题,内部表述是“进展缓慢”。这说明 14A 还不是当前两年最核心的兑现变量,当前最关键还是 18A 良率和产能。
英特尔、AMD和ARM:短期看x86修复,长期看生态战争
过去几年 AMD 的份额提升很快。2021-2024 年,英特尔明显落后,主要卡在制程、核心数和功耗上。AMD 借助台积电 7nm、5nm 快速起量,Zen 架构核心数量更高、能耗更低,价格又有优势,服务器 CPU 份额一度在单季度冲到接近 40%。
但现在局面有变化。英特尔新品上来之后,性能、功耗和价格差距被明显缩小,软件兼容性和服务器稳定性仍然是英特尔的强项。专家判断,Q1 英特尔服务器端市占率已经回到约 70%,Q2 可能冲到 75%。这个说法偏调研口径,实际市场数据还要等第三方确认,但至少说明订单层面已经有修复。
AMD 不是没有反击点。下一轮竞争核心在先进制程:AMD 想争取台积电 2nm,英特尔则押 18A。谁先把下一代技术做出来,谁就能在高端服务器 CPU 上占先机。这个节点会影响 2027 年以后格局。
ARM 的问题更复杂。短期看,ARM 在服务器端占比仍低,去年只有 1% 多,今年可能到 3%,基数并不高。原因不是 ARM 没优点,它功耗低、多核容易做,而且终端和服务器如果统一架构,长期效率可能很好。问题在生态:服务器端操作系统、预装软件、行业软件、长期运行稳定性和兼容性,都还没完全打通。
闭源环境里 ARM 很好用,比如特定云厂、特定硬件系统、特定自研生态。但在开源和通用服务器环境里,x86 仍然更稳。这就是为什么市场感觉 ARM 声量很大,但真实出货占比不高。
不过长期不能轻视 ARM。专家明确提到,2028-2030 年才是真正要害怕的时间窗口。如果高通等厂商持续投入,把软硬件生态打通,同时单核性能逼近甚至超过 x86,多核又更强,ARM 的威胁会变得真实。现在不是它没潜力,而是生态还没到爆发点。
内存共享池和CXL:CPU绕不开,但不是所有场景都要最先进
内存共享池是存储链条里非常值得写的一条线。它的本质不是“把内存堆在一起”这么简单,而是让 CPU 通过 CXL/PCIe 等接口去调度共享内存资源,提高整体利用率。
调研里有个判断很实用:内存共享池一定需要 CPU 管控,这是绕不开的物理机制。客户真正追求的是更多核心数,因为核心数越高,能调用和管理的层级越多,越容易把共享池利用起来。
但是共享池不一定非得用最先进 CPU。一些 Retimer、switch、CXL switch 芯片确实需要 CPU 协议支持,但对制程先进性的要求没那么高,N-1 代 CPU 就能满足不少场景。真正需要新平台的地方,是架构更新后的反馈速度、效率和能耗改善。
因此,CXL 和内存共享池会拉动 CPU 存在感,但不会把所有需求都推向最顶级 CPU。它更像是扩大 CPU 管理边界,提高高核数产品的价值,而不是简单把最高端 CPU 全面替代中端产品。
消费端没那么差,AI PC是慢变量
会议里消费端也聊得不少。表面看,今年 PC 行业预期偏弱,但专家从厂商订单看到的情况没那么差。消费级 CPU Q1 出货约 3600-3800 万颗,Q2 过了一个多月后,四月份同比去年增长约 8%。
这和行业下滑预期有点不一致。专家给出的解释有两个:一是 18A 消费端产品前期供货太少,很多用户在等货;二是 2020 年疫情期间买电脑的用户,到了五六年换机周期,尤其是 25-35 岁、对办公有刚需的人群,换机需求并不会因为宏观波动完全消失。
更长期的变量是 AI PC 和端侧 Agent。手机端本地 AI 计算已经开始普及,高通新品、各大手机厂商都在讲端侧 AI。等用户习惯逐步形成,可能反过来推动传统 PC 向 AI PC 换代。这个不是爆发式变量,更像慢慢积累的换机理由。
所以消费端不是本篇核心,但它会影响产能分配。服务器 CPU 很紧,但消费端不能随便牺牲。尤其当消费端 18A 产品同样供不应求时,服务器端想拿更多先进制程产能,就会和消费端形成内部竞争。
存储联动:CPU拉动内存,但也要警惕AI活跃度波动
本次调研本来就有一个重要背景:CPU 升级会不会拉动存储?答案是会,但不是单线条拉动。
先看正向逻辑。服务器从八通道更多切到十六通道,AI 推理服务器从一比八走向一比四,单颗 CPU 核心数增加,内存条数量和容量配置都会提高。内存共享池也需要更多内存资源和 CPU 调度能力。这些都支持 DDR5、服务器内存和高容量配置需求。
但调研里也提醒了另一个现实:AI C 端活跃度并不是一条直线往上。很多用户体验过 ChatGPT、Claude、豆包等产品之后,活跃度有回落,部分账号变成“僵尸号”。如果终端真实活跃度下滑,服务器资源占用和新增存储拉货就会阶段性放缓。
这也是为什么 CPU 链条强,不代表存储价格永远单边上行。服务器 CPU 出货、内存通道升级、共享池架构,会带来中长期支撑;但短期存储价格还要看 AI 应用真实活跃度、云厂商采购节奏和前期库存消化。
还有一个更远期变量是存算一体。专家提到,存算一体不是新概念,但已经有公司开始攻破可实现路径。若 2028-2030 年存算一体真正成熟,部分计算可能直接在存储侧完成,CPU 或 GPU 的依赖率都会发生变化。这个时间很远,但值得放进长期框架。
这条线后面怎么跟踪
这类调研最怕听完很兴奋,最后不知道跟什么。我觉得后续至少要盯七个信号。
第一,看 Q4 服务器 CPU 订单。如果 Q4 继续维持 300 万颗以上,甚至因为 18A 预期而提前锁单,说明今年 1200-1300 万颗目标更稳。
第二,看 18A 良率。65% 到 80%、再到 90%,每一步都影响市场信心。Q3 如果只能到 80%,也不算失败,但 Q4 能否接近 90% 很关键。
第三,看 Diamond Rapids 等新品占比。新品占比如果从 10% 走向 50%,价格、毛利和市占率修复都会更顺。
第四,看 CPU/GPU 配比。主流是否继续从一比八往一比四走,一比二和一比一是否仍只停留在小规模私域场景。
第五,看 x86 和 ARM 份额。短期 ARM 占比低,但如果到 2028-2030 年生态打通,就不能再用今天的市占率简单外推。
第六,看 CXL 和内存共享池落地。它会提高高核数 CPU 的价值,也会带动存储资源池化,但不一定全部指向最先进 CPU。
第七,看 AI 应用活跃度。服务器硬件的终局需求,最后还是要靠真实用户、真实付费和真实算力消耗来验证。
结论:CPU紧缺不是短炒,而是AI推理时代的硬件重排
这次调研最重要的结论,不是某一款 CPU 涨价,也不是某一代制程要放量,而是 AI 硬件的排序正在变化。GPU 仍然是核心,HBM 和光互联仍然关键,但 CPU 的位置比市场原来想的更重要。
训练时代,CPU 可以被理解为后台控制器;推理时代,CPU 开始参与调度、比对、校正和复杂计算。尤其当 AI 服务器从一比八走向一比四,CPU 的需求强度自然上升。与此同时,服务器 CPU 产能已经接近满载,先进制程良率还没完全成熟,短期供给弹性很差。
所以这轮 CPU 紧缺背后的逻辑,并不是“PC 周期复苏”这么简单,也不是“服务器补库存”这么普通。它更像是 AI 推理、内存扩容、平台迭代、x86 份额修复和先进制程瓶颈共同作用的结果。
短期看,最确定的是高端服务器 CPU 继续紧、价格有支撑、英特尔份额可能修复;中期看,18A 良率和产能决定格局弹性;长期看,ARM 生态是否打通、存算一体是否成熟,会决定下一轮 CPU 架构之争。
说白了,CPU 不是 AI 超级周期里最性感的环节,但它可能是被低估的那一个。市场以前只盯 GPU 和 HBM,现在该把 CPU 重新放回 AI 硬件版图里了。
--------------
来源:价值百宝箱
展开阅读全文
文章观点仅代表作者观点,或基于大数据智能生产,不构成投资建议。投资者依据此做出的投资决策需自担风险,与通联数据无关。