AI芯片市场正迎来结构性调整,GPU长期主导大模型训练环节,但模型训练结束后的推理及衍生任务,对芯片类型的需求正逐渐分化。Meta作为全球AI研发的核心参与者,其云服务采购策略一直备受关注——去年八月,Meta与Google Cloud签署六年100亿美元的合作协议,一度让它与AWS的传统合作关系出现松动;近日AWS宣布,Meta已签署协议,将使用数百万颗自研Graviton芯片支撑日益增长的AI计算需求。
AWS Graviton是基于ARM架构的中央处理器(CPU),和训练用GPU不同,它的最新版本被明确设计用于处理AI相关计算任务。此次Meta采购的数百万颗Graviton芯片,将主要处理模型训练后的工作负载,包括实时推理、代码生成、智能搜索及多步骤代理任务协调等,这些任务虽计算密集,但对单线程性能和能效比的要求更适配CPU架构。
AI工作负载分为训练与推理两大阶段:训练阶段需要大规模并行计算,GPU凭借高吞吐量成为首选;推理阶段则涉及大量实时低延迟请求,CPU在指令集灵活性、能效及成本控制方面更具优势。AWS Graviton通过ARM架构的能效优化及AI推理指令集增强,实现了更高的每瓦性能比,这正是Meta选择它的核心技术原因。
此次合作巩固了AWS在Meta供应链中的地位,标志着AI芯片市场的分工正在细化——CPU不再只承担通用计算任务,而是成为AI生态推理层的核心组件。对Meta而言,多元化采购能平衡成本与性能,降低对单一云服务商的依赖;对AWS来说,Graviton的大规模商用验证能提升自研芯片的竞争力,与GPU供应商形成差异化优势。
从行业动态来看,近期CPU厂商与云服务商的合作愈发紧密:Intel Xeon系列优化了AI推理指令集,AMD EPYC则拓展了AI边缘场景。在竞争对手方面,Google Cloud加速了自研TPU芯片的推理性能升级,推出低延迟的TPU v5e;微软Azure推进ARM架构自研芯片Project Olympus,计划2024年量产,以应对AWS Graviton带来的冲击。






快报