资讯 芯片
此为临时链接,仅用于文章预览,将在时失效

单机架性能超x86两倍、每GW省100亿美元,Arm为智能体时代「重造」CPU

作者:刘伊伦
2026/03/26 16:02

AI正在重塑全球计算基础设施,代理式计算正成为下一代算力革命的核心引擎,产业迫切需要更高效、更具能效比、更易规模化落地的原生部署方案。

站在这一关键节点,Arm以全新姿态正式入场。

当地时间2026年3月24日,Arm宣告推出自研Arm AGI CPU,卡位AI数据中心赛道,瞄准爆发式增长的代理式AI (agentic AI)工作负载需求。

AGI CPU的亮相,暗藏着Arm的“平台级”战略升级:其业务版图不再局限于IP授权与计算子系统(CSS),还延伸至自主设计、可规模化量产的芯片产品。

这意味着Arm将为业界提供覆盖IP、计算子系统(CSS)及自研芯片的“最广泛”的计算产品选择。

“AI从根本上重塑了计算的构建与部署,代理式计算正进一步加速这一变革。今天标志着Arm计算平台迈入全新发展阶段,也成为公司发展的重要里程碑。随着Arm AGI CPU芯片的推出,我们将基于Arm高性能、高能效的计算基石,为合作伙伴提供更多选择,助力代理式AI基础设施实现全球规模化部署。”Arm首席执行官Rene Haas表示。

单机架性能超x86两倍、每GW省100亿美元,Arm为智能体时代「重造」CPU

代理式AI正在重构算力基础设施,也对CPU提出了全新要求。面对这一趋势,Arm AGI CPU具备哪些核心特性?又将如何获得全球生态的广泛支持?

Arm下场造芯,Agentic AI迎来「原生」CPU

AI智能体的崛起,正在悄悄改写数据中心的权力结构。

过去两年,行业聚光灯一直打在GPU上,训练大模型需要算力,英伟达成了无可争议的主角。但随着AI的应用重心从模型训练转向推理执行,智能体开始大规模部署,CPU的角色被重新定义。

智能体生成的Token数量呈指数级增长,背后是CPU扛下推理、协同调度与数据迁移的繁重负载。

随着企业不断扩大由智能体驱动的应用规模,数据中心对每GW功耗提供的CPU算力需求将增长至当前的四倍以上,这意味着必须在相同功耗限制下实现算力的大幅提升。

这一趋势,直接催生了专为AI规模化基础设施量身打造的新一代CPU。它不仅要支撑智能体高吞吐的性能需求,还要在严苛功耗约束下实现极致能效。

此前,x86的演进路径长期面向“人机交互”优化,追求高主频及复杂的指令集兼容性。这些特性在桌面和通用服务器时代是优势,但在Agentic AI数据中心,反而成了“额外的开销与复杂冗余”。

Arm AGI CPU的设计,则完全围绕AI时代的“刚需”展开。

这一结构性差异,也让Arm AGI CPU从底层设计上实现领先:

性能上,Arm单颗CPU集成多达136个Neoverse V3核心,在单核、SoC、刀片服务器及机架级均实现行业领先性能,同时配备每核心6GB/s内存带宽,时延低于100ns。

单机架性能超x86两倍、每GW省100亿美元,Arm为智能体时代「重造」CPU

300瓦TDP功耗规格配合独立线程核心架构,使其能在持续高负载运行中保持稳定确定性性能,有效避免降频与线程资源闲置。

在能效层面,AGI CPU既支持风冷方案适配高密度1U服务器,单机架可部署8160个计算核心,也可通过液冷实现超45000核的机架级规模,在扩展性与能效上全面适配智能体AI数据中心需求。

更关键的是,其单机架性能达到x86平台的两倍以上,每GW AI数据中心算力的资本支出节省高达100亿美元。

单机架性能超x86两倍、每GW省100亿美元,Arm为智能体时代「重造」CPU

当行业变革的窗口期到来时,固守边界比跨越边界更危险。

Agentic AI正在催生一个新品类,即面向AI规模化基础设施的CPU。

这个品类不属于x86的延续,也不属于GPU的替代,而是为智能体时代专门设计的计算基石。Arm AGI CPU的入场,或许正是这个品类定义权争夺的开始。

NVIDIA站台、Meta联合开发,Arm造芯为何获巨头们「广泛支持」?

一款芯片能否成功,产品定义只是第一步,生态的厚度才是决定天花板的关键。Arm AGI CPU发布的同时,也秀出了朋友圈。

朋友圈中,Meta的位置最为特殊,双方并非简单的供需关系,而是深度绑定的技术同盟。

Meta不仅是AGI CPU的早期客户,更参与了芯片的联合开发,从需求定义、架构优化到场景验证,全程深度介入。这种模式的商业逻辑很清晰:Meta需要一颗与其自研MTIA加速器完美协同的CPU,从而在大规模AI系统中实现更高效的编排与调度,而Arm需要一家拥有“吉瓦级”数据中心规模的伙伴来打磨产品。

雷峰网(公众号:雷峰网)获悉,双方承诺将围绕Arm AGI CPU的多代芯片产品展开长期深度合作。

Meta基础设施负责人Santosh Janardhan表示:“要在全球规模化提供AI体验,需要一套稳健、高适配性的定制化芯片解决方案,专为加速AI工作负载、优化Meta全平台的性能而打造。我们与Arm携手开发Arm AGI CPU,以部署一套高效的计算平台,在显著提升数据中心性能密度的同时,为我们持续演进的 AI 系统构建跨多代产品的技术发展路线图。”

除Meta外,Arm已确认与Cerebras、Cloudflare、F5 科技、OpenAI、Positron、Rebellions、SAP、SK 电讯等企业达成进一步的商务合作。这些客户将在代理式CPU核心应用场景中部署Arm AGI CPU,覆盖加速器管理、控制平面处理、云与企业级 API、任务与应用托管等领域。

为了加快产品落地与规模化部署,完成交付的“最后一公里”,Arm与永擎电子、联想、广达电脑、Supermicro等头部OEM厂商及ODM厂商展开合作,早期系统现已推出,更广泛的商用部署预计将于2026年下半年落地。

此外,亚马逊云科技、博通、谷歌、Marvell、美光、微软、NVIDIA、三星、SK海力士、台积公司等AI基础设施上下游关键玩家,均对Arm计算平台向芯片领域拓展表示支持。

此次Arm AGI CPU的推出将Arm计算平台矩阵扩展至量产芯片领域,标志着Arm计算平台的发展迈入全新阶段,将其高能效架构规模化引入AI基础设施。

这是一次自然的能力外溢:当Agentic AI对CPU提出全新定义,Arm选择以实体产品回应市场的真实诉求。从卖蓝图到交钥匙,从影响生态到服务生态,Arm的计算平台正式进入全新阶段。

长按图片保存图片,分享给好友或朋友圈

正在生成分享图...

取消
相关文章