
AMD 在 CES 2026 打出了一场 " 超级秀 ":OpenAI 总裁 Greg Brockman 罕见为竞争对手背书,李飞飞的 World Labs 深度绑定 AMD 算力,Blue Origin 宣布用 AMD 芯片登月。硬件层面,苏姿丰公布了未来两年三代 GPU 路线图—— MI455X(2026 年底)、MI500(2027 年)连续迭代,性能每代提升倍数级,剑指英伟达 AI 芯片霸主地位。
重磅路线图:两年连发三代 AI 芯片

2026 年底:MI455X 领衔 Helios 平台
AMD 发布的 Helios 是下一代机架级 AI 系统,双机架设计、重达 7000 磅(约 3.2 吨)。单机架集成 72 颗 MI455X GPU,提供 2.9 ExaFLOPs 算力、31TB HBM4 内存,并具备 约 43 TB/s 的 scale-out(跨机架)带宽与 约 260 TB/s 的 scale-up(机架内)互联带宽。
MI455X 采用 2nm+3nm 混合工艺,首次搭载 HBM4 内存,性能相比当前的 MI355X 提升 10 倍。苏姿丰在台上举起实物芯片时强调:" 这东西美不美?" 同步发布的还有 MI440X(针对 8 卡配置)和 MI430X(主权云和传统 HPC 场景)。
2027 年:MI500 系列接力
更关键的是 AMD 首次公布了完整的 Instinct 路线图,明确展示到 MI500 系列的技术演进:

MI500 系列规格:
架构:CDNA 6
制程:2nm
内存:HBM4e(更高带宽版本)
时间:2027 年
这意味着 AMD 将保持年度迭代节奏,从 MI300(2024)→ MI400 系列(2026)→ MI500(2027),三代产品在两年多时间内密集发布。相比之下,英伟达的 Blackwell 到下一代 Rubin 的周期也在 18-24 个月,AMD 正在追平竞争对手的产品节奏。
消费级:Ryzen 路线同步推进
客户端方面,AMD 发布 Ryzen AI 400 系列(12 核 Zen 5 + 60 TOPS NPU,1 月底出货)和 Ryzen AI Halo 开发者平台(128GB 内存,本地跑 2000 亿参数,Q2 上市)。同时首次展示代号 Venice 的 Zen 6 服务器处理器实物芯片,但未公布具体时间表。

Ryzen AI Halo:能本地运行 2000 亿参数模型的迷你工作站。
这套路线图的战略意图清晰:用高频迭代和开放生态,蚕食英伟达在数据中心 AI 芯片 80%+ 的市场份额。
OpenAI 总裁罕见同台 AMD:算力供给将影响未来 GDP 上限
Greg Brockman 的现身意义重大。作为 OpenAI 联合创始人兼总裁,他过去几乎只为自家合作伙伴(主要是微软和英伟达)站台。这次登上 AMD 舞台,释放了明确信号:OpenAI 正在多元化算力供应链。
Brockman 核心观点有三:
AI 从 " 文本框 " 进化到 " 代理舰队 "—— ChatGPT 不再是被动回答问题的工具,而是能调用其他 AI 代理、长时间自主运行的复杂系统。这意味着推理算力需求将暴增。
算力将成为 GDP 约束—— " 几年后,经济增长本身将受制于可用算力规模。AI 不仅服务最终用户,更要优化所有现有流程。"
展示 ChatGPT 自动生成对比图表——现场演示中,AI 代理仅凭原始数据就自主研究并生成 MI450 vs MI300 性能对比幻灯片,证明代理工作流的实用性。

ChatGPT 自主生成的 MI450 与 MI300/MI350 性能对比图
更关键的数据来自 Luma AI:这家生成视频公司 CEO Amit Jain 透露,其 60% 推理负载已在 AMD 上运行,并计划将合作规模扩大 10 倍。Luma 的 Ray3 模型正是算力密集型应用的典型代表,这个案例证明 AMD 已经在实际商业场景中获得头部客户认可。
李飞飞押注 AMD:空间智能需要极致算力
被誉为 "AI 教母 " 的李飞飞以 World Labs 联合创始人兼 CEO 身份登台,展示了旗舰产品 Marble 的惊艳能力:

"AI 教母 " 李飞飞以 World Labs CEO 身份登台,展示空间智能技术
仅凭几张照片,Marble 就能生成符合物理规律的完整 3D 世界。现场演示中,从 AMD 办公室的照片到可交互的三维模型,整个重建过程只需几分钟。这不是简单的建模,而是 AI 理解空间关系、光影、物理后生成的 " 智能化世界 "。
李飞飞的核心观点直指硬件需求:" 你看不到的是背后需要多少计算量。推理速度越快,世界响应性就越强——即时镜头移动、即时编辑、场景始终连贯,这才是关键。" 她明确表示期待 MI400 系列上市,以支持更大规模世界的实时渲染和交互。
World Labs 已获 AMD Ventures 投资,技术应用覆盖游戏、元宇宙、虚拟制作、建筑设计等领域。从 ImageNet 到空间智能,李飞飞的每次转向都预示着 AI 新范式——而这次,她选择深度绑定 AMD 的算力路线图。
AMD 芯片上月球:Versal 2 驱动 Blue Origin 着陆器
Blue Origin 首席技术官 John Couluris 宣布,其 Mark 2 月球着陆器将搭载 AMD Versal 2 芯片,用于自主降落和实时危险识别。这是典型的 " 终极边缘计算场景 " ——延迟必须极低,算力必须可靠,且要在极端温度和辐射环境下工作。
Couluris 透露,Blue Origin 员工已全员使用 AI 工具,未来月球探索将依赖边缘 AI 提前处理和优化数据。Mark 2 着陆器计划 2028 年执行任务,目标是建立永久月球基地,并在月球背面开展射电天文学研究。
这个案例与 AMD 另一个合作同样惊艳:Generative Bionics 的 Gene 1 人形机器人搭载 " 分布式触觉皮肤 ",能感知压力和接触,应用于辅助物理治疗。该机器人将于 2026 年下半年量产,核心计算由 AMD 处理器驱动。
从月球表面到地球上的康复中心,AMD 在用硬件证明:AI 不仅是云端训练游戏,更是边缘实时决策的必需品。
Liquid AI:12 亿参数,把 " 本地代理 " 做成可演示的产品形态
AMD 还请来了 Liquid AI 创始人 Ramin Hasani。这家从 MIT 衍生的公司发布了 LFM 2.5,并强调其路线是用更高效的架构,让十亿级参数模型在本地设备上也能跑出接近大模型的体验,把 " 效率 " 而不是 " 堆参数 " 作为核心卖点。
Hasani 的表述很直接:" 我们不造基础模型,我们造液态模型。" 现场他们演示了 " 主动代理 " 的工作方式:在 Zoom 会议中自动记录要点,同时对邮件进行检索式研究,用户还能继续操作表格,主打 " 不中断工作流 " 的并行能力。Liquid AI 还透露,计划在 2026 年底推进原生多模态的下一代模型(文本 + 视觉 + 音频),并与 Zoom 等场景方继续推进产品化合作。
这一段也呼应了 Ryzen AI Halo 的叙事:更强的本地内存与端侧算力,配合更高效的模型路线,目标是把 " 离线也能跑的智能代理 " 推向可用阶段。
开放生态对抗 CUDA 霸权
苏姿丰反复强调的一句话是:"AMD 是唯一在全栈提供开放性的公司。" 这是对英伟达 CUDA 封闭生态的正面宣战。ROCm 开源软件栈能否追平 CUDA 十余年的开发者积累,决定了 AMD 能否真正撼动市场格局。

AMD 从制程、架构到内存技术的全面演进路线
市场数据支撑了 AMD 的信心:
AI 用户从 ChatGPT 发布时的 100 万增长到现在的 10 亿,五年内将达 50 亿
全球算力需求从 2022 年的 1 ZettaFLOP 增长到 2025 年的 100 ZettaFLOPs,五年内需要 10+ YottaFLOPs ——相当于 2022 年的 10000 倍

Luma AI、OpenAI 等客户选择 AMD,很大程度是为了降低对单一供应商的依赖和总拥有成本(TCO)。Luma CEO 直言:" 推理经济性对我们至关重要,模型需要海量算力和 token。"
三大悬念:豪赌能否兑现
苏姿丰的开场词是 "You ain ’ t seen nothing yet"(好戏才刚开始)。但从愿景到现实,至少三个问题待解:
Helios 能否如期交付—— 2026 年底是关键节点,MI455X 的 10 倍性能承诺能否兑现将直接影响客户信心
年度迭代能否持续——从 MI400 到 MI500 的 12 个月周期,对供应链、良率、生态适配都是巨大考验
ROCm 生态成熟度——开发者工具、模型适配、调试体验能否在短期内追平 CUDA?这是决定胜负的软实力
从 OpenAI 总裁的罕见站台,到李飞飞 World Labs 的深度绑定,再到 Blue Origin 的月球计划,AMD 在 CES 2026 搭建起了一个全方位的 AI 算力叙事。但 AI 芯片战争的下半场,拼的不再是 PPT 和路线图,而是真实的交付能力、生态整合能力和长期服务能力。
Helios 能否按时交付?OpenAI 会把多少负载迁移到 AMD?李飞飞的空间智能何时大规模商用?2026 年底到 2027 年的连续发布能否兑现?市场会给出答案。


登录后才可以发布评论哦
打开小程序可以发布评论哦