英伟达年度 GTC 大会释放出一个核心信号:AI 算力的商业逻辑正在发生根本性重构—— Token 已成为新的大宗商品,而算力即收入。
英伟达管理层在本届 GTC 上将数据中心销售可见度从此前的 5000 亿美元(覆盖至 2026 年)大幅上调至逾 1 万亿美元(覆盖 2025 至 2027 年累计),并明确表示独立 Vera CPU 及 LPX 机架方案的销售额将在此之外额外计入。华尔街将这场大会视为英伟达 AI 周期持续性的有力背书。
据追风交易台,摩根大通最新报告指出,这一数字意味着相对于华尔街当前对 2026 至 2027 年数据中心收入的一致预期,存在至少 500 至 700 亿美元的上行空间。
美银证券报告直接援引英伟达管理层表述——"Token 是新的大宗商品,算力等于收入 "——并指出,Blackwell 系统相较上一代 Hopper 已实现每 Token 成本降低高达 35 倍,即将推出的 Rubin 系列有望在此基础上再降低 2 至 35 倍,具体幅度取决于工作负载类型与架构配置。
在英伟达的叙事框架下,这种持续压缩的 Token 成本曲线,是驱动需求规模化扩张的根本动力。
需求能见度翻倍,超大规模客户与企业市场双轮驱动
英伟达管理层披露,Blackwell 及 Vera Rubin 系统的高置信度采购订单已超过 1 万亿美元,较 2025 年 10 月 GTC DC 大会上公布的 5000 亿美元翻倍。管理层同时表示,2027 年的额外订单和积压订单有望在未来 6 至 9 个月内持续累积。
需求结构呈现多元化:约 60% 来自超大规模云厂商(内部 AI 消费正从推荐 / 搜索工作负载向大语言模型迁移),其余约 40% 分布于 CUDA 云原生 AI 企业、英伟达云合作伙伴、主权 AI 及工业 / 企业客户。
美银指出,这一新的 1 万亿美元展望与此前华尔街对该三年期数据中心收入约 9700 亿美元的预期基本吻合,验证逻辑与 2025 年 10 月旧版 5000 亿美元展望验证约 4500 亿美元预期的方式如出一辙。
值得关注的是,英伟达管理层在本次大会上用相当篇幅阐述了传统企业工作负载加速这一需求向量。
英伟达宣布与 IBM(加速 WatsonX)、谷歌云(BigQuery 加速,Snap 实现约 76% 成本节省)、戴尔(AI 数据平台)等合作,并推出 cuDF 及 cuVS 两大 CUDA-X 基础库。
摩根大通认为,这一方向 " 被市场严重低估 " ——其逻辑在于,摩尔定律已趋于失效,领域专用加速是唯一可行的替代路径,这将把英伟达的可寻址市场扩展至 AI 训练 / 推理周期之外。
Groq LPU 整合:架构层面最重要的新品发布
摩根大通将 Groq 3 LPU 与 Vera Rubin 的整合评定为本届 GTC" 架构层面最重要的新品发布 "。
这一解耦推理架构将 Rubin GPU(高吞吐量,288GB HBM4,22TB/s 带宽,50 PFLOPS NVFP4)与 Groq LPU(低延迟解码,500MB 片上 SRAM,150TB/s SRAM 带宽,1.2 PFLOPS FP8)配对使用:预填充在 Vera Rubin 上完成,注意力解码部分同样在 Rubin 上运行,而前馈网络 /Token 生成则卸载至 Groq LPU。
LPX 机架集成 256 颗 LPU,提供 128GB 聚合 SRAM、40PB/s 内存带宽及 315 PFLOPS 推理算力,预计于 2026 年第三季度上市。
英伟达管理层表示,对于需要超高 Token 速度的工作负载(代码生成、工程计算、长上下文推理),约 25% 的数据中心功耗将分配给 LPX,其余 75% 为纯 Vera Rubin NVL72 配置。
美银数据显示,Rubin 系统搭配 SRAM LPX 机架后,高端低延迟工作负载的效率可较上一代提升 35 倍。摩根大通则指出,这一架构直接回应了单一处理器无法同时优化吞吐量(受 FLOPS 限制)与延迟(受带宽限制)的根本矛盾,使英伟达得以在此前 ASIC 厂商具有传统优势的高端推理市场有效竞争。
铜缆与 CPO 并行推进,互联路线不设单一赌注
英伟达管理层在大会上正面回应了铜缆与共封装光学(CPO)之争,确认将同时推进两条路线。
当前 Vera Rubin 世代,Oberon 机架采用铜缆扩展至 NVL72,光学扩展至 NVL576;Spectrum-6 SPX 共封装光学以太网交换机已量产,由英伟达与台积电联合开发,管理层称其光学功耗效率较传统可插拔收发器提升 5 倍,韧性提升 10 倍。
对于 Rubin Ultra(2027 年下半年),Kyber 机架采用铜缆 NVLink 扩展(最多 144 颗 GPU),同时提供基于 CPO 的 NVLink 交换方案作为备选。Feynman(2028 年)将明确同时支持铜缆与 CPO 扩展,并配备 Spectrum-7(204T,CPO)用于横向扩展。
美银证券强调,CPO 扩展 / 横向扩展交换机的采用对客户而言完全可选,客户可继续使用铜缆直至其认为合适的时间节点。摩根大通则认为,这一双路径确认与其此前预判一致,预计铜缆扩展将在至少 2027 年前继续主导 NVL72/NVL144 配置,CPO 则将在横向扩展及 NVL576+ 配置中逐步扩大份额。
Vera CPU:面向智能体 AI 的独立数十亿美元新收入来源
英伟达管理层在大会上明确表示,Vera CPU 独立业务 " 已经确定将成为一个数十亿美元量级的业务 ",美银证券指出这一收入流尚未被当前市场一致预期所涵盖,属于增量贡献。
Vera CPU 搭载 88 颗自研 Olympus ARM 核心,LPDDR5X 内存子系统提供 1.2TB/s 带宽(功耗仅为传统服务器 CPU 的一半),并通过 NVLink-C2C 以 1.8TB/s 速率与 GPU 互联(相当于 PCIe Gen 6 的 7 倍)。Vera CPU 机架集成 256 颗液冷 CPU,支持超过 22500 个并发 CPU 环境。
管理层强调,CPU 正在成为智能体 AI 扩展的瓶颈——强化学习与智能体工作流需要大量 CPU 环境来测试和验证 GPU 模型的输出结果。Meta 已在规模化部署上一代 Grace CPU,Vera 将于 2027 年接替。
摩根大通将这一 CPU 收入流定性为高毛利、可重复(随 GPU 机架一同部署于 AI 工厂),并与英伟达正在主动催化的智能体 AI 采用曲线形成结构性绑定。
产品路线图延伸至 2028 年,年度架构节奏持续强化
英伟达重申了年度平台发布节奏:Blackwell(2024 年)→ Blackwell Ultra(2025 年)→ Rubin(2026 年)→ Rubin Ultra(2027 年)→ Feynman(2028 年)。
Rubin Ultra 将采用 4 芯片 GPU 配置,搭载 1TB HBM4e,新增 LP35 LPU 芯片(首次引入 NVFP4 算力),Kyber 机架支持每 NVLink 域 144 颗 GPU(第七代 NVLink,3.6Tb/s 每 GPU,NVL576 聚合带宽 1.5Pb/s)。
Feynman 的细节披露超出市场预期:
新 GPU 采用台积电 A16(1.6nm)工艺,引入芯片堆叠与定制 HBM;新 CPU 命名为 Rosa(以 Rosalind Franklin 命名),专为跨 GPU、LPU、存储及网络的智能体工作负载编排而设计;新 LPU 命名为 LP40,由英伟达内部 Groq 团队联合开发;此外还包括 BlueField-5 DPU、ConnectX-10 超级网卡、NVLink 8 及 Spectrum-7(204T,CPO)。
摩根大通认为,英伟达纵向整合平台(现已横跨七颗芯片、五种机架系统及配套软件栈)难以被复制,推理需求加速、传统工作负载加速带来的可寻址市场结构性扩张,以及客户基础的持续拓宽,共同支撑着一个比市场当前所预期更具持续性的 AI 资本开支周期。


登录后才可以发布评论哦
打开小程序可以发布评论哦