天极网 03-30
代理式AI时代下算力难题谁来解?Arm亮出答案
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

过去几年,整个行业的目光几乎都被 GPU 等专用加速器所吸引,CPU 在 AI 算力体系中的价值长期被低估。当 AI 发展从被动响应的工具,演进为能够自主规划、执行复杂任务并与其他智能体协同的代理式 AI 时,算力需求的结构发生了根本性改变,CPU 这个曾经的算力配角正蜕变为舞台中心的主角。

" 代理式 AI 的绝大部分工作并非词元生成,而是词元 ( Token ) 的调度与分发、协同编排,以及服务管理,这些工作都只能由 CPU 来完成。"Arm 首席执行官 Rene Haas 在采访中这样定义 CPU 在 AI 时代的角色。

在这一背景下,Arm 作出了公司历史上一次具有里程碑意义的战略抉择:从 IP 和计算子系统 ( CSS ) 供应商,延伸至自研量产级芯片的领域,发布其首款自研数据中心 CPU —— Arm AGI CPU,为代理式 AI 基础设施打造全新计算基石,也开启了算力架构从 x86 主导向多元竞争的新阶段。

在日前举行的亚太区线上媒体沟通会上,Arm 首席执行官 Rene Haas 和 Arm 云 AI 事业部执行副总裁 Mohamed Awad,围绕 Arm AGI CPU 的技术研发、生态布局与市场战略进行了深入分享。

打造算力架构新格局

在 AI 数据中心中,CPU 承担着协调加速器、管理内存与存储、调度工作负载、跨系统迁移数据等一系列任务。

代理式 AI 的规模化落地,对 CPU 提出了前所未有的严苛要求。随着 AI 系统从模型训练转向部署可持续运行、具备推理、规划与执行能力的智能体,整个系统生成的词元数量飞速增长,亟需更多 CPU 来承载推理、协同调度与数据迁移等任务。同时,由于软件智能体可自主协同、持续运行,数据中心对每吉瓦功耗提供的 CPU 算力需求预计将增长至当前的四倍以上。

Arm AGI CPU 的推出正是对这一趋势的直接回应。从技术架构来看,Arm AGI CPU 采用两颗规格完全相同的芯粒紧密封装,每颗芯粒均集成 CPU 核心、内存接口和 I/O 接口,由台积公司三纳米工艺制造。单颗 CPU 集成多达 136 个 Arm Neoverse V3 核心,在单核、系统级芯片、刀片式服务器及机架各层级均实现了行业领先的性能表现。尤为关键的是其内存架构,每核心提供 6GB/s 内存带宽,时延低于 100 纳秒,主要内存接口采用 12 通道 DDR5,速率达 8800 MT/s。这一设计确保了在数千核心并行的持续高负载下,每个任务都能获得确定性性能。

在能效与部署密度方面,Arm AGI CPU 同样展现出显著优势。300 瓦的 TDP 设计使其能够支持高密度 1U 服务器机箱的风冷部署方案,单机架可支持多达 8160 个计算核心 ; 而与 Supermicro 合作的液冷设计方案更是将单机架核心数推至超过 45000 个。根据 Arm 内部估算,这种配置下的单机架性能可达到最新 x86 平台的两倍以上,每吉瓦 AI 数据中心算力的资本支出可节省高达 100 亿美元。

Mohamed Awad 强调,能耗约束的挑战在未来仍将持续,这也意味着行业必须打造更多定制芯片,或是针对低功耗做深度优化的芯片,而这正是 Arm AGI CPU 的优势所在。从长远来看,随着芯片部署规模的不断扩大,整体算力成本最终将呈现下降趋势。

是竞争还是共赢?

Arm 此次向芯片产品领域的拓展,不可避免地引发了外界对 "Arm 是否将与客户形成竞争关系 " 的关注。

对此,Rene Haas 在沟通会上给出了明确的回应。他指出,代理式 AI 市场蕴藏着极其巨大的机遇,足以容纳众多参与者。更重要的是,Arm 并未放弃原有的 IP 授权和计算子系统业务,而是通过产品矩阵的拓展,满足广泛客户的多元化需求。并且,包括亚马逊、谷歌、微软在内的多家 Arm 技术授权客户均对此次发布表示支持,NVIDIA 也发表了积极评价,这足以体现产业链各方对 Arm 这一布局的态度。

Mohamed Awad 进一步补充,如今数据中心架构日趋复杂,涉及存储卸载、网络卸载等多重需求,即便是行业巨头,也难以做到所有环节全部自研,正如谷歌自研 TPU 后,仍会从 NVIDIA 采购大量 GPU,企业自研芯片无法满足全部业务需求,这也为外部采购留下了充足空间。而 Arm 能为客户提供基于同一平台的多元产品,让客户可根据自身基础设施的不同需求,选择 IP、CSS 或自研 CPU。从这一角度看,Arm 自研芯片并非与客户 " 抢蛋糕 ",而是在市场扩张过程中,以更丰富的产品形态 " 做大蛋糕 "。

在生态合作上,Arm AGI CPU 已获得全球产业界的广泛支持。Meta 作为早期合作伙伴与联合开发者,深度参与了芯片的研发过程,将其与自研 MTIA 加速器协同部署,优化全平台 AI 基础设施 ;Cerebras、Cloudflare、OpenAI、SAP、SK 电讯等企业也达成商务合作,将 Arm AGI CPU 部署于加速器管理、代理式 AI 协同调度等场景 ; 永擎电子、联想、Supermicro 等头部 OEM/ODM 厂商已开放商用系统订购,为 Arm AGI CPU 的规模化落地提供了硬件支撑。此外,超大规模云服务、芯片、内存、网络等领域的 50 余家领军企业,均对 Arm 的芯片布局表示支持,构筑起覆盖全产业链的生态体系。

展望未来,依托 Arm AGI CPU 的技术优势与生态布局,Arm 为相关业务设定了明确的增长目标。Rene Haas 透露,预计未来 5 年,这类产品的总潜在市场规模约为 1000 亿美元 ; 到 2030 年,Arm 该业务板块的年营收将达到 150 亿美元。同时,当前发展势头强劲的 IP 业务,营收将在本十年末突破 100 亿美元。

写在最后

毫不夸张地说,Arm AGI CPU 的发布标志着全球 AI 算力基础设施正在进入一个全新的发展阶段。从手机到服务器,从边缘到云端,Arm 架构的能效优势正以前所未有的规模渗透至计算领域的每一个角落。当代理式 AI 开启新一轮技术变革,计算底层的架构之争也将迎来新的格局。正如 Rene Haas 所言:"Arm AGI CPU 的核心潜力和机遇,在于从 x86 架构手中夺取市场份额,而抓住这一机遇的关键,是该产品能在同等功耗下实现性能翻倍。"

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 数据中心 ai时代 首席执行官 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论