IT时报 03-21
黄仁勋:全世界都错了!英伟达也没能打破“DeepSeek魔咒”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

每次发完言股价就跌

作者/   IT 时报记者   贾天荣

编辑/  郝俊慧    孙妍

" 去年,几乎全世界都错了。"当地时间 3 月 18 日,GTC 2025 年度开发者大会上,英伟达 CEO 黄仁勋开场不久便直言不讳。

"AI 的计算需求,其规模定律具有更强的韧性,事实上是超加速的。由于自主智能(Agentic AI)和推理能力的缘故,我们目前所需的计算量,比去年这个时候预期的至少多 100 倍。" 他反复强调,AI 正在经历一个转折点," 变得更有用了,更聪明了,可以推理 ",同时 AI 模型的 " 训练 " 和 " 推理 " 所需的计算量已大幅增加。

低成本、高效能的国产 AI 模型 DeepSeek(简称 DS)震撼世界后,投资者对英伟达高价 AI 芯片产生了怀疑。过去两年,英伟达股价上涨逾 350%。但自今年年初 DeepSeek 上线以来,其市值已缩水约 16%。黄仁勋发表讲话后,该股收盘下跌 4.10 美元,跌幅达 3.4%,至 115.43 美元,第二天又稍有回弹至 117.52 美元。将近 2 个月时间里,英伟达股价起起伏伏,又回到了 1 月 27 日暴跌后的原点。

《IT 时报》记者注意到,虽然黄仁勋的表态并未消除投资者的顾虑,但中国头部大厂们正在加速布局 AI,以应对激增的算力需求。

"AI 扩展定律加速 "

黄仁勋强调,AI 正从生成式时代迈向代理式 AI 和物理 AI 时代,计算需求将迎来飞速增长。他解释,具备推理能力的 AI 会对问题进行逐步拆解,并以各种不同方式得出最佳答案,而不是一次性随意给出一个结果,模型变得更加复杂,生成的 token 数量显著增加了 10 倍。为了保证模型的响应速度、使其具备交互性,避免用户在等待思考的过程中失去耐心,计算速度也得提高 10 倍," 因此,最终所需的计算量轻松达到原来的 100 倍 "。

在黄仁勋看来,随着人工智能的扩展,推理将成为未来十年最重要的工作负载之一。大会上,英伟达正式发布 Blackwell Ultra 芯片,包括 GB300 NVL72 机架级解决方案和 NVIDIA HGX B300 NVL16 系统。基于现有 Blackwell 架构,Blackwell Ultra 预计将比前代产品提升 1.5 倍 AI 性能。Blackwell 架构已全面投产,新品 Blackwell Ultra NVL72 预计于今年下半年出货,其 NVLink72+Dynamo 推理性能相较 Hopper 提升 40 倍。此外,英伟达透露,下一代 Rubin 架构芯片将于 2026 年下半年推出。

英伟达还发布了 AI 计算机 DGX Spark 和 DGX Station,均搭载 Blackwell 芯片,以进一步推动 AI 计算能力的升级。

在机器人领域,英伟达推出全球首款开源人形机器人功能模型 GR00T N1,并携手谷歌 DeepMind 与迪士尼,共同开发机器人模拟用开源物理引擎 Newton。黄仁勋对机器人市场充满信心,称其 " 很可能成为全球最大的产业。"

同时,英伟达宣布与通用汽车合作开发自动驾驶汽车,并携手 T-Mobile 等公司,共同推进 6G 时代的 AI 网络技术。

AI 推理带火 H20

此前接受 CNBC Mad Money 节目的采访期间,黄仁勋称赞 DeepSeek-R1" 非常棒 ",因为它是第一个开源推理模型,会逐步思考问题,在思考时自问,并提出几种不同的答案选项。他预计到本世纪末,全球计算资本支出每年将达到 1 万亿美元,其中绝大部分将用于 AI,英伟达在其中的占比将相当大。

对于投资者担忧市场需求减少的问题,黄仁勋还发布了一组数据来安慰投资者。他表示,Blackwell 芯片推出一年来,AI 行业取得了巨大进展,AI 功能越来越强大了。2024 年全球排名前四的云服务提供商(亚马逊、谷歌、微软和甲骨文)共采购 130 万片 Hopper 架构芯片。2025 年,它们又购买了 360 万 Blackwell 芯片。预计到 2028 年数据中心建设支出将达 1 万亿美元。

图源:东方 IC

在国内," 腾讯向英伟达采购数十亿元 H20 芯片,目标实现 AI 应用规模化 " 也成为近期业内热议话题。

去年年初,《IT 时报》曾报道,由于 H20 性能大幅缩水,包括腾讯在内的许多企业对这款特供版芯片并不看好。然而,曾经 " 无人问津 " 的 H20,如今却出现 " 供不应求 " 的局面,这一转变似乎也印证了黄仁勋所言 "AI 行业转折点 " 正在到来。

山海引擎 COO 彭璐对此分析,H20 的热销与 AI 推理市场的爆发密切相关。" 基础模型的训练就像制造发动机,但用户要的产品是一辆完整的汽车,H20 的作用你可以理解为是用来驾驶汽车的。" 彭璐指出,企业需要大量算力来训练基础模型,就像造发动机需要强大的机械臂;而当模型进入推理阶段,所需的计算资源类型则完全不同,更强调显存的承载能力。H20 的优势就在于其更大的显存,使其在推理环节表现优异。

从硬件参数来看,H20 相比 H100、A100、A800 等产品,在显存方面有明显提升。H100 和 A100 的显存上限为 80GB,而 H20 的最低配置已达到 96GB,最新版本更是高达 141GB,与 H200 持平。在 AI 推理任务中,单机显存越大,推理性能就越强,因此 H20 的 141GB 版本备受市场追捧。

目前,许多企业正考虑用 H20 替代 H100、H200 等产品,以降低部署成本。例如,部署 671B 满血版 DeepSeek,一台 H200 即可满足需求,而若使用 H100 则需两台,如果是显存为 40G 版本的 H100 则需要 6~8 台,带来显著的成本和能耗压力。

H20 最新版本在性能提升的同时,成本相较于前代产品更具性价比。据了解,H20 141GB 版本的样机自今年 3 月起陆续推出,并于 3 月中旬开始大规模供应。目前 H20 的市场价格相较 96GB 版本有所提升,整机价格约为 125 万元,尽管价格仍然较高,但显存升级带来的推理优势,使其仍具有较强的竞争力。

大厂提速 AI

"DeepSeek 确实降低了企业使用 AI 模型的门槛。" 彭璐向记者透露,2023 年下半年至 2024 年全年,科大讯飞、百度、智谱等厂商对企业的 AI 私有化部署报价约为 2000 万元。而随着 DeepSeek 的出现,企业的年均使用成本有望降至 500 万元左右,显著降低了资金门槛," 但从目前来看,企业应用 AI 的成本依然不低 "。

当前 AI 市场的竞争正逐步向头部企业集中。一方面,AI 市场的资本投入正在收紧。一度火热的 " 六小龙 " 融资遇冷,另一方面,大厂们却正摩拳擦掌,等待在 AI 时代再创巅峰。

3 月 19 日,腾讯发布 2024 年 Q4 及全年财报。记者注意到,2024 年,腾讯资本开支 767.60 亿元,同比增长 221%,创公司历史新高。其中第四季度的 AI 项目发展所涉及的资本开支付款就达 390 亿元。与此同时,腾讯的 AI 战略更趋明朗," 自研 + 开源 " 多模型策略正在重塑业务格局。今年 2 月至 3 月,元宝日活跃用户激增超 20 倍,成为中国 DAU 排名第三的 AI 原生移动应用。

一个月前,阿里巴巴集团 CEO 吴泳铭也宣布,未来三年阿里巴巴将投入超过 3800 亿元,用于建设云和 AI 硬件基础设施,总额超过去十年总和,创下中国民营企业在云和 AI 硬件基础设施建设领域有史以来最大规模投资纪录。

一位业内人士透露,阿里近期在内蒙古乌兰察布最新建设的数据中心,设计总功率超过 1 吉瓦(1000 兆瓦),预计三年内全部投入使用。大厂在 AI 基础设施上的布局已进入长期规划阶段,竞争格局也愈发集中。

对于英伟达而言,中国互联网大厂继续大举投资 AI 基建,无疑是个好消息。2 月底公布的财报显示,2025 财年英伟达中国区营收 171.08 亿美元,为史上最高,不过英伟达同时表示,在中国的数据中心收入 " 远低于预期 ",产品出货量将 " 大致保持在当前比例 "。

数据显示,英伟达 2025 财年中国营收占比为 13.1%,低于上一财年 19% 的占比,而在更早的几年间,这个数字是 2 字开头。

彭璐指出,虽然短期内英伟达仍将受益于市场需求,国产芯片的技术差距正在缩小,"AI 训练需求减少之后,对高密度算力的要求也会下降,这有助于国产芯片加快追赶步伐 "。

只是,当前国产芯片的主要制约因素仍是制程工艺。中国大规模量产的芯片制程仍以 7 纳米为主,5 纳米刚刚取得突破,而英伟达已进入 3 纳米时代。这使得国产芯片在单位硅片的计算密度上仍存在较大差距,短期内难以撼动英伟达的市场地位。

排版/ 季嘉颖

图片/  NVIDIA    东方 IC

来源/《IT 时报》公众号 vittimes

E N D

大家都在看

请加「星标」不错过我们

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

黄仁勋 ai 英伟达 芯片 物理
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论