AI推理重构算力配比:英特尔称CPU与GPU将趋近1:1,数据中心业务迎增长拐点

2026.04.24 14:46
2026年4月24日,英特尔CEO陈立武在Q1财报会上表示,AI工作负载从训练转向推理推动CPU与GPU配比向1:1平衡,当前已收窄至1:4。行业预测智能体时代每吉瓦CPU核心需求增4倍至1.2亿,英特尔Q1数据中心与AI营收51亿同比增22%,CPU在推理的低延迟调度中起关键作用。

2026年4月24日,英特尔首席执行官陈立武在第一季度财报电话会议上提到,随着人工智能(AI)工作负载重心从模型训练转向推理部署,数据中心内CPU与GPU的算力配比正从传统的1:8加速向1:1的平衡状态演进。这一变化的背后,是推理阶段对低延迟响应、高效任务调度和复杂流程编排的核心需求——CPU在其中扮演着不可替代的控制与协调角色。

当前,全球数据中心中CPU与GPU的配比已收窄至约1:4,相比之前的1:8有了明显提升。陈立武指出,在推理场景下,AI应用需要实时处理用户请求、动态分配计算资源并协调多任务并行,这些都依赖于CPU的通用计算能力与灵活调度机制;GPU则专注于大规模并行计算任务,二者的协同正成为最大化推理效率的关键。行业研究显示,AI智能体时代的到来将进一步提升CPU需求——每吉瓦算力所需的CPU核心数预计将达到1.2亿,较当前水平增长4倍,这意味着CPU在算力体系中的权重会持续上升。

算力配比的变化直接反映在英特尔的业务表现上。英特尔第一季度数据中心与AI业务营收达到51亿美元,同比增长22%,其中CPU产品在推理场景的出货量增长尤为显著。陈立武强调,英特尔正通过优化Xeon处理器的AI加速能力,比如集成AMX(高级矩阵扩展)技术,提升其在推理任务中的性能与能效比,以适应配比变化带来的市场需求。

行业内,英伟达近期推出的H100 NVL芯片通过高带宽内存组合优化推理性能,意在巩固自身在GPU领域的优势;AMD则加强EPYC CPU的AI推理加速能力,推出支持CDNA 3架构的MI300X加速器,与CPU形成协同解决方案。国内厂商中,华为昇腾910B芯片也在推理场景实现了能效比的提升,成为本土数据中心的重要选择。这些动作都说明,CPU与GPU的协同优化已成为AI算力竞争的核心方向,而英特尔关于配比的预测或将重塑行业对算力资源配置的认知。

作品声明:内容由AI生成
Baidu
map