半导体产业纵横 6小时前
ASIC崛起,英伟达的王座还稳吗?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

" 我们为谷歌的成功感到高兴——他们在 AI 领域取得了巨大进步,我们也将继续向谷歌提供产品。英伟达目前领先行业一代——我们是唯一一个可以运行所有 AI 模型、并在各种计算场景中通用的平台。"

11 月 25 日,英伟达在社交平台 X 上的这番声明,被视为对谷歌 TPU 近期备受关注的直接回应。

就在声明前一天,有消息传出 Meta 正考虑从 2027 年开始在其数据中心部署谷歌的 TPU,这一潜在交易金额可能高达数十亿美元。受此影响,英伟达股价一度重挫逾 7%,市值蒸发近 3500 亿美元。这一市场波动清晰地表明,AI 算力领域正迎来一场静默而深刻的变革。

在英伟达 GPU 看似垄断的市场中,一股新生力量正悄然崛起。OpenAI 开始租用谷歌的 TPU 芯片为其 ChatGPT 提供算力支持,亚马逊宣布其 Trainium2 芯片性能价格比优于其他硬件 30% 到 40%,博通和 Marvell 的 AI 业务收入暴涨,一个明确的信号正在释放:ASIC 的时代,已经到来。

01ASIC 芯片的崛起与繁荣

2025 年,全球 ASIC 芯片市场迎来爆发式增长。据中商产业研究院数据,2024 年全球 ASIC 芯片市场规模已约达 120 亿美元,到 2030 年,这一数字有望超过 500 亿美元。

长期以来,英伟达凭借其 GPU 和 CUDA 生态,在 AI 芯片市场占据了超过 90% 的份额。 然而,谷歌 TPU 作为 ASIC 芯片的代表,正被视为英伟达 Blackwell 芯片的可行低成本替代方案,逐渐改变市场竞争格局。在 AI 模型训练成本呈指数级增长的今天,通用 GPU 虽然灵活,但其本质上仍是为图形渲染设计的硬件,在面对神经网络的特定计算模式时,存在大量的效率损失。

TPU 和 GPU 都能处理训练 AI 模型所需的大量计算,但实现方式截然不同。英伟达的 GPU 最初为渲染视频游戏图像而开发,通过数千个计算 " 核心 " 并行处理多项任务。而 TPU 专门为矩阵乘法这类 AI 相关工作而构建,这是训练神经网络的主要操作。

专用与通用,成为 ASIC 与 GPU 的核心差异。英伟达在声明中强调,其芯片相比谷歌 TPU 等专用集成电路芯片提供 " 更高的性能、多功能性和互换性 ",后者通常只为单一公司或单一功能设计。

谷歌最新版本的 TPU 名为 Ironwood,于今年 4 月发布,采用液冷设计,专为运行 AI 推理工作负载而设计。它有两种配置:256 个芯片的集群,或更大的 9216 个芯片集群。TPU 在某些 AI 工作上可能表现优于 GPU,因为谷歌可以 " 去除芯片上许多不适合 AI 的其他部分 ",使其能耗更低、运营成本更低。

先进封装技术成为 ASIC 发展的重要支撑。根据 TrendForce 集邦咨询研究,随着云端服务业者加速自研 ASIC,为整合更多复杂功能的芯片,对封装面积的需求不断扩大。已有 CSP 开始考量从台积电的 CoWoS 方案,转向英特尔的 EMIB 技术。EMIB 拥有数项优势:结构简化,舍弃昂贵且大面积的中介层;热膨胀系数问题较小;封装尺寸也较具优势。随着谷歌决定在 2027 年 TPUv9 导入 EMIB 试用,Meta 亦积极评估规划用于其 MTIA 产品,EMIB 技术有望为英特尔 IFS 业务带来重大进展。

02博通与 Marvell,双足鼎立

在 ASIC 定制芯片的繁荣背后,两大巨头成为最大赢家:博通和 Marvell。 这两家公司已形成近乎垄断的双寡头格局,合计占据 ASIC 市场超过 60% 的份额。

博通作为绝对霸主,单独拿下 55-60% 的市占率。从业绩就能直观感受到它的强势 —— Q2 财报里,AI 业务收入直接突破 44 亿美元,同比增长 46%,其中定制 AI 加速器还实现了两位数增长,这种增速在成熟芯片企业里相当亮眼。更关键的是它和大客户的深度绑定,最典型的就是与谷歌的合作:从谷歌第一代 TPU 芯片开始,博通就全程参与设计和制造,现在双方合作已经推进到 3nm 工艺的第六代 TPU,2023 年谷歌单在 TPU 相关合作上就给博通付了 35 亿美元,2024 年这个数字预计会翻倍到 70 亿美元,甚至连第七代 TPU 的供应合同都已经提前锁定。除了谷歌,博通还跟 Meta 敲定了未来两年的 AI 基础设施合作,预计能带来数十亿美元收入;2025 年更联手 OpenAI 启动了 10 吉瓦级的定制 AI 加速器项目,这套系统会装在 OpenAI 全球的数据中心里,靠博通的以太网解决方案实现算力集群扩展,整个项目估值超过千亿美金。而且博通不只是靠单一产品,它 " 定制加速器 + 高速互连 " 的策略很见效,以太网、PCIe Gen6 这些配套 IP 能牢牢粘住客户,按照规划,2025 年它的 AI 总收入预计能突破 110 亿美元,差不多是 Marvell 同期 AI 收入的 4 倍多。

再看 Marvell 的 " 逆袭打法 "。它虽然份额不如博通,但增长势头极猛:26Q1 数据中心营收达到 14.41 亿美元,占总营收的 76%,同比还暴增了 76%,这背后几乎全靠 AI 定制芯片的大规模出货。Marvell 聪明的地方在于不跟博通正面硬刚,而是走差异化路线。在客户布局上,它搭建了 " 亚马逊 + 谷歌 + 微软 " 的三角合作网:给亚马逊量产 5nm 的 Trainium 训练芯片,这款芯片占了 AWS ASIC 出货量的 85%,接下来还会接 Inferentia v3 推理芯片的项目;给谷歌代工 5nm 的 Axion ARM CPU 芯片,刚好和博通给谷歌做的 TPU 业务形成互补,不抢饭碗反而互相搭配;最近还拿下了微软 Maia AI 芯片 2026 年的量产订单,靠着这三大客户,Marvell 甚至定下了 2028 年 AI 收入冲刺 70-80 亿美元的目标。

技术上,Marvell 也有自己的侧重点,专门盯着 " 能效 + 互联 " 做文章。它已经能用上台积电最新的 3nm 制程工艺,还握有 112G XSR SerDes 高速互连 IP、240Tbps Die-to-Die 互连技术,在云数据中心场景里能做到 " 性能够强、功耗够低 " —— 它和美光合作开发的 HBM 高带宽内存架构,能让 AI 加速器的算力密度提升 25%,待机功耗却降低 66%,正好戳中云厂商想控制总拥有成本的需求。另外,Marvell 还搞了数据中心全栈布局,除了 AI 定制芯片,存储控制器、网络交换芯片这些配套产品也做得不错,比如它的 112G SerDes IP,既能用在 AI 加速器上,也能装在自家的以太网交换机里,这种 " 芯片 - 互连 - 存储 " 的垂直整合能力,成了它区别于博通的关键优势。

其实这两家能长期垄断,核心是有三道别人难跨的门槛。一是技术壁垒高,两家都掌握了 3nm 制程量产能力,还有超 20 年的 ASIC 设计经验 —— Marvell 过去 25 年交付了超过 2000 个定制项目,博通手里有覆盖计算、存储、网络的全场景 IP 库,新玩家想跟上,得先闯过 " 制程工艺 + 客户验证 + 生态适配 " 这三关。二是客户分化合理,博通主要做谷歌、Meta、OpenAI 这些客户的 " 训练侧 " 算力需求,Marvell 聚焦亚马逊、微软的 " 推理 + 通用计算 " 场景,互不抢食,反而能覆盖更多市场。2025 年全球云服务提供商的 ASIC 出货量预计超 500 万颗,其中谷歌 TPU 的 220 万颗、AWS ASIC 的 180 万颗,核心份额还是被这两家分了。三是行业趋势助推,现在生成式 AI 对算力的需求,正从通用 GPU 转向定制 ASIC —— 毕竟 ASIC 在特定任务上算力成本降低了 30% 到 40%,云厂商为了降成本,更愿意跟头部供应商深度绑定,比如 OpenAI 既选博通做定制加速器,又用英伟达的通用算力,这也说明双寡头在 ASIC 领域的地位很难被撼动。

03生态和供应链,是关键

AI 算力竞争远不止于芯片性能本身,更延伸到软件生态和供应链安全。

英伟达凭借 CUDA 生态系统构建了深厚的护城河,这是其声明中 " 唯一可以运行所有 AI 模型 " 的底气所在。谷歌则通过垂直整合,强化软硬件协同优势。谷歌上周发布了公司最强大模型 Gemini 3,这款广受好评的最先进 AI 模型是在该公司的 TPU 上训练的,而非英伟达 GPU。这一技术成就增强了 TPU 作为英伟达 GPU 可靠替代方案的可信度。

供应链多元化成为云巨头的重要考量。研究机构 Gartner 分析师表示,谷歌尽管拥有自己的芯片,仍是英伟达最大客户之一,因为它必须为客户保持灵活性。如果客户的算法或模型发生变化,GPU 更适合处理更广泛的工作负载。与英伟达不同,谷歌不向其他公司出售 TPU 芯片,而是将其用于内部任务,并允许企业通过 Google Cloud 租用。

这种模式正在获得认可,当前 TPU 客户包括 OpenAI 联合创始人 Ilya Sutskever 去年创起的初创公司 Safe Superintelligence,以及 Salesforce、Midjourney 和 Anthropic。

国内市场方面,巨头企业在 ASIC 领域的布局同样亮眼,其中阿里巴巴自研的 PPU 芯片走在前列。据机构研判,这款 PPU 芯片在显存容量、片间互联带宽等关键指标上已超越英伟达 A800,而在显存容量、PCIe 等核心参数上,也能与英伟达 H20 比肩。

上市公司中,芯原股份近年来与互联网巨头展开深度合作,其 AI ASIC 业务在今年第三季度实现了翻倍式增长;翱捷科技则聚焦智能穿戴、端侧 SOC 等细分领域,目前 ASIC 业务在手订单充足,机构预计到 2026 年,该公司这一业务的收入将迎来大幅提升。

对于国产 AI 芯片的发展,多家券商也给出积极判断。中信证券指出,当前国产 AI 芯片自主可控进展顺利,除了阿里巴巴自研的含光系列 AI 推理芯片外,华为昇腾、寒武纪等企业的自研 AI 芯片也在持续迭代,这些成果有望缓解国内 AI 领域对海外算力的依赖。西部证券认为,企业拥有自研芯片可替代外部供给,能有效确保模型迭代与规模部署的连续性和可预期性。浙商证券则分析称,相较于 GPU,ASIC 芯片在特定场景下具备低成本、高性能、低功耗的优势,专用性和性价比更高,预计到 2028 年,ASIC 市场规模将达到 AI 芯片整体市场的 19%;同时该机构提到,ASIC 芯片单价远低于 GPU,约为 GPU 的 1/5,随着 Meta、微软等企业逐步大规模部署自研 ASIC 解决方案,ASIC 总出货量有望在 2026 年某个时点超越英伟达。

ASIC 的崛起并不意味 GPU 的衰落。正如谷歌发言人所回应的:" 我们定制的 TPU 和英伟达 GPU 的需求都在加速增长。我们将一如既往地继续支持这两者。"这种多元化的策略,可能正是 AI 算力发展的未来方向——没有单一解决方案能通吃所有场景。

芯片行业 " 不是只有一个赢家的零和游戏 "。即使是最积极的 ASIC 采用者,也仍在大量采购英伟达芯片。例如,Anthropic 在与谷歌达成 TPU 协议几周后,就宣布了与英伟达的重大交易。

在 AI 技术快速迭代的今天,算力格局的重塑才刚刚开始。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

英伟达 谷歌 ai 芯片 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论