盖世汽车 03-20
当AI开始驱动车轮与机械臂,Arm选择押注物理AI
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

过去几年,AI 产业的主线始终围绕大模型、训练集群和云端算力展开。无论是资本市场的叙事中心,还是产业链的资源投入,焦点都更多落在 " 模型规模能做多大、训练效率能提升到什么水平、算力集群能扩展到多大规模 " 这些问题上。但到了 2026 年,一个更具体、也更难回答的问题被越来越多地推到台前:当 AI 不再只是生成文本、图像和代码,而是开始进入汽车、机器人、无人机和工业设备,直接参与感知、决策与执行,计算平台究竟该如何重构?

这也是 Arm 在近日物理 AI(Physical AI)媒体交流会上试图回答的核心问题。据悉,Arm 是在今年年初才把汽车与机器人相关能力统一纳入 Physical AI 业务线,此举看似只是组织调整,实则释放了一个更明确的信号:下一阶段 AI 竞争,决定胜负的未必只是模型能力,而是整套计算底座能否支撑真实世界里的感知、推理、控制和执行。换句话说,当 AI 真正开始驱动车轮与机械臂,行业比拼的对象,正在从 " 谁更会训练模型 ",逐步转向 " 谁更能让 AI 在现实世界稳定运行 "。

图片来源: Arm

从行业节奏看,这一判断并不突兀。国际机器人联合会发布的《World Robotics 2025》显示,2024 年全球工业机器人新增装机量达到 54.2 万台,连续第四年超过 50 万台;专业服务机器人销量接近 20 万台,同比增长 9%。与此同时,麦肯锡在 2025 年末发布的研究中预计,到 2030 年,仅美国市场,AI 智能体与机器人就可能释放约 2.9 万亿美元的年度经济价值。它未必会按最乐观的速度兑现,但足以说明,物理 AI 不再只是实验室概念,而是在加速进入产业竞争的中心区域。

物理AI来了,改的不是形态,而是规则

Arm 在官方材料中这样对物理 AI 进行定义:它面向的是多变、不可预测且安全关键的真实场景,系统需要在物理世界中完成感知、推理与控制的闭环,而不是只在数字环境中输出内容。也就是说,它的输出不再是文本、图像或语音,而是动作本身。这个差别看起来只是 " 输出形式不同 ",但背后对应的约束条件完全不同。

在现场,Arm 物理 AI 事业部执行副总裁 Drew Henry 也用一个更直白的方式概括这一点:" 简单来说,就是把 AI 嵌入具备执行能力的机器里。"

在生成式 AI 场景中,如果 AI 给出的回答不够理想,很多时候还只是体验层面的问题;可在物理 AI 场景里,一次误判可能直接对应误刹车、误转向、误抓取,甚至突破整套系统的安全边界。这里的评价标准不是 " 参数有多大 " 或者 " 跑分有多高 ",而是系统能否在严格时延、有限功耗和高安全要求下,把感知到的世界快速、正确地转化为动作。

因此,物理 AI 最难的地方,并不是模型本身,而是模型如何在现实世界中被稳定执行。

在交流会上,Drew Henry 反复强调一个核心指标:" 从感知信号到执行动作的时延,是物理 AI 最关键的指标之一。" 系统追求的,不是抽象意义上的 " 更强计算 ",而是 " 更快、更确定的动作闭环 "。无论是车辆的转向与制动,还是机械臂的抓取、无人机的路径修正,最终决定体验与安全性的,都是这一闭环效率。

沿着这一逻辑继续拆分,物理 AI 平台并不是一个平面结构,而更像是多层计算体系叠加出来的复杂系统。按照 Henry 在现场的说法,它至少包括四个层面:自主决策层,负责感知环境并做出实时判断;交互层,面向乘员或使用者提供信息反馈与互动;驱动与执行层,把复杂部件协调起来真正完成动作;最底层则是云端协同,承担模型训练、数据回流与设备群协作。四层彼此不同,却必须在同一套平台中协同运转。正因为如此,物理 AI 并不是 " 边缘 AI 再升级一点 ",而是在倒逼整个产业重写平台定义:芯片如何分工,算力如何调度,安全如何验证,软件如何持续升级,系统如何跨设备、跨场景扩展。

某种意义上,物理 AI 真正改写的,不是某个产品类别,而是下一代计算平台的约束条件。

为什么是现在?Arm把分散能力重新收拢

2026 年 1 月,Arm 高管在 2026 年国际消费电子展(CES 2026)期间‌向媒体确认正式成立物理 AI(Physical AI)事业部。

在交流会后的采访环节,当被问及为何在这一时间点单独设立物理 AI 事业部时,Henry 的回答反复提到 " 长期积累 "。他表示,Arm 在相关领域的投入已经持续了 10 到 20 年," 这并不是一条全新的赛道,而是我们一直在做的事情 "。如今把这些能力归拢到物理 AI 框架下,与其说是切入一个新方向,不如说是 Arm 判断,这些原本分散在不同赛道里的技术积累,已经到了需要被放进同一张产业图谱中重新定义的时候。

这种说法并不难理解。过去很长一段时间里,汽车和机器人是两条相对独立的赛道,前者更强调功能安全、量产体系和供应链稳定性,后者则更强调运动控制、环境适应和任务泛化能力。

但到了近两年,两者在底层架构上的趋同性越来越明显:中央计算平台加分布式控制节点,正在成为越来越多系统的共同选择;传感器融合、实时决策、功能安全、持续 OTA 和云边协同,也逐渐成为两条赛道共享的技术命题。Arm 把汽车和机器人放进同一业务线,本质上就是对这种技术收敛趋势的回应。

更重要的是,Arm 在相关领域已经有多年的积累。从其披露的数据看,如今全球所有联网用户每天都会与 Arm 技术发生交互;其生态累计已出货超过 3250 亿颗芯片,全球超过 2200 万开发者基于 Arm 平台进行全栈软件开发。这些芯片分布在物联网、智能家居、智能手机、汽车、机器人平台,以及大型云计算中心和 AI 数据中心之中。仅过去 12 个月,Arm 生态面向汽车、自动驾驶和机器人平台就出货了 20 亿颗设备。

换句话说,Arm 如今强调物理 AI,是试图把自己长期嵌入汽车、机器人及相关计算体系之中、却分散在不同赛道的能力,重新组织成一套更完整的叙事。

从更宏观的维度看,这种押注也不是没有外部支撑。据 VoxEU 预测,未来十年,AI 有望推动全球 GDP 增长 4%。Barclays Research 也预计,到 2035 年人形机器人市场规模就将达 400 亿美元。摩根士丹利则称,到 2050 年机器人半导体市场规模有望实现约 800 倍增长。而 Henry 坚信,物理 AI 将进一步加速这一增长。

AI进入物理世界,计算竞争开始换赛道

随着物理 AI 逐步升温,一个行业共识也在形成:AI 计算的价值坐标正在变化。

在 2026 年 GTC 上,黄仁勋明确提出,AI 早已不只是训练问题," 推理的拐点已经到来 "。这一判断迅速影响了市场对下一阶段算力结构的理解,因为它意味着,随着终端部署数量增加,推理侧会从 " 模型之后的一环 " 变成新的需求中心。

在物理 AI 媒体交流会上,盖世汽车也把类似问题抛给了 Arm。Henry 并没有认同 " 从训练转向推理 " 的简单划分,而是指出,推理本身一直存在于物理 AI 系统中," 传感器数据进入后,系统做出判断的过程,本身就是推理 "。

在他看来,训练和推理并不是替代关系,而是始终共存:系统需要实时推理来做出动作,同时也依赖持续训练来提升能力。真正发生变化的,是随着机器人和自动驾驶系统数量增加,推理侧的总计算量会因为部署规模扩大而快速放大。

这个回答的关键,不是去否定黄仁勋的判断,而是把问题重新放回端云协同的系统视角里。换句话说,在 Arm 的视角中,推理并不是一个阶段性 " 替代 ",而是始终嵌在系统运行中的一部分。

如果从芯片产业的角度理解,这实际上是在修正一个旧坐标系——芯片不再只是提供算力资源,而是开始承担起系统实时响应、控制协同与安全执行的关键角色。

过去几年,AI 芯片竞争围绕训练效率、推理吞吐和带宽展开,Tensor 算力几乎成为核心指标。谁的张量性能更强,谁的互联更高效,谁更能支撑更大规模的模型训练,往往就更容易掌握市场话语权。但到了物理 AI 阶段,这一逻辑开始不够用了。原因并不复杂:系统面对的不再是离线数据,而是持续流入的多模态传感器信息,需要在极短时间内完成融合、判断和动作输出。

因此,关键在于如何 " 算得及时 "。

Henry 在回答芯片范式变化时提到,物理 AI 平台追求的并不是最高峰值性能,甚至也不只是更高带宽,而是在微秒级或毫秒级时间窗口里,实现最快、最有效率的执行。

这个判断背后的含义非常明确:未来物理 AI 芯片不会只是把云端计算平台缩小后搬到边缘,也不会简单沿着通用 GPU 那种不断堆叠张量能力的路线继续线性外推,而更可能走向更强的异构化、更强调控制平面、更重视软硬件协同的方向。

这会直接带来芯片逻辑上的变化。

过去在很多 AI 叙事里,最受关注的是模型和加速器,而控制器、实时处理器、安全岛、低功耗管理单元这些模块,往往更像配套部件。但在物理 AI 系统中,它们的重要性会被明显抬升。因为系统能不能在高负载或异常状态下保持稳定,很多时候不取决于峰值算力,而取决于控制链路是否足够确定,安全边界是否足够清晰。

也正因此,Henry 才会反复强调,Arm 既有实时处理器,也有高性能 CPU,还能与不同加速器协同工作。它强调的重点不是替代加速器,而是把整条执行链路组织得更可预测。

这种变化也会延伸到软件层。对物理 AI 来说,软件栈连续性往往比短期跑分更重要。汽车行业已经给出了一个比较成熟的参照:一辆车的硬件生命周期可能长达数年,但 ADAS、座舱和控制策略会持续 OTA 更新。机器人系统同样如此,尤其是物流、制造、巡检等场景中的设备,寿命往往很长,可感知模型和决策策略却要不断迭代。问题在于,这种迭代不能每次都推翻整套安全验证过程,更不能破坏实时控制和安全边界。

Arm 在公开博客中就把这一点列为物理 AI 平台的重要要求:它既要支撑云端训练、边缘推理和设备端实时执行,又要在硬件迭代过程中保持软件连续性。

再往前走一步,跨行业复用会成为物理 AI 降低成本的一条关键路径。

Henry 在采访中提到一个很有意思的观察:传统汽车正在向自动驾驶演进,传统固定功能机器人也在向自主机器人演进,而在这个过程中,两者在自主层面对计算的需求正越来越接近。对 Arm 来说,机会恰恰在于帮助客户以相对统一的平台覆盖自主决策、交互、驱动执行和云端协同这些层级,进而简化软件栈、提升研发效率。这并不意味着汽车芯片和机器人芯片会完全合流,但至少说明,在底座架构、工具链和部分控制系统上,复用空间正在被打开。

说到底,物理 AI 对芯片行业提出的新要求,并不只是更强 AI 算力,而是更完整的系统能力:实时、可预测、安全、可升级,而且最好还能跨场景复用。

Arm的优势,不止于芯片,更在整个平台

如果沿着这一逻辑继续看,Arm 在物理 AI 里的定位其实很清楚:它的优势,并不只在于推出一颗 " 最强单芯片 ",更在于提供一个足够稳定、足够广覆盖的基础平台。

这种优势首先来自平台连续性。物理 AI 系统从训练到部署再到运行与升级,本来就是一个完整链条。如果底层架构割裂,软件迁移和系统验证成本会迅速放大。Arm 试图提供的,是一个从云到边、从高性能计算到实时控制都能协同的统一基础。

其次,是其在混合关键任务系统中的长期经验。以自动驾驶平台为例,一套系统往往同时包含高性能 AI 计算、实时控制、安全机制和低功耗管理。

按照 Arm 新闻稿中的表述,Tensor 的 L4 自动驾驶平台单车集成了 433 个基于 Arm 架构的核心,覆盖 Neoverse AE、Cortex-X、Cortex-A、Cortex-R 和 Cortex-M 等不同系列,分别承担高吞吐 AI 处理、座舱与峰值性能控制、线控与通用计算、实时安全关键控制以及低功耗子系统管理等任务,并与 NVIDIA 加速计算协同运行。

这个案例说明:在真实的物理 AI 系统里,Arm 的价值往往不在于独占所有 AI 算力,而在于它能够渗透到从主计算域到最小控制节点的各个层面,把感知、控制、安全和系统管理编织进同一套底座。

这种角色也解释了为什么 Arm 在沟通中一直强调 " 灵活 "。

在 Henry 的表述里,客户既可以采用合作伙伴提供的技术,也可以基于 Arm 搭建自己的差异化平台。它不是强行推一种封闭式方案,而是把自己放在一个开放底座的位置上。这种姿态在今天的物理 AI 阶段尤其重要,因为无论是具身模型、世界模型,还是自动驾驶和机器人平台的架构,整体上都还远未收敛。行业现在最需要的,不是一个唯一标准答案,而是一套能容纳不同路径演进的基础平台。

热度不缺,难的是把物理AI真正跑起来

当前物理 AI 的市场关注度已明显走高,但其产业成熟度尚未与之匹配。确实,从自动驾驶到人形机器人,从工业系统到服务机器人,几乎所有科技公司都在强化 "AI 进入现实世界 " 的叙事。机器人已经成为展会与资本市场中的高频词,模型、仿真、端侧推理和世界模型也在迅速升温。物理 AI 的概念,至少在舆论层面,已经进入加速期。

但真正的问题,并不在于概念是否成立,而在于它能否规模化落地。

技术路线仍在快速变化,模型形态尚未收敛;商业模式仍在探索,规模部署与成本控制尚未完全匹配;更重要的是,安全与责任体系的复杂度远高于生成式 AI。物理 AI 不能容忍太高的试错成本,一旦进入现实环境,就必须面对功能安全、冗余设计和监管验证等问题。也正因如此,Arm 反复强调 " 安全、确定性和系统稳定性 "。

回到最初的问题,当 AI 开始驱动车轮与机械臂,计算逻辑究竟发生了什么变化?

答案或许可以总结为一句话:AI 不再只是追求更强的计算能力,而是需要在真实世界中实现可控、可靠的决策与执行。

对 Arm 而言,成立 Physical AI 业务线只是一个起点。真正的挑战,是能否在这场从云端走向现实世界的产业重构中,把自身的底座能力,转化为下一代计算平台的核心影响力。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai arm 机器人 机械臂 物理
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论