新智元 2小时前
英伟达的疯狂账本:一边收割巨头,一边「包养」OpenAI
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

ChatGPT 涨价、免费额度缩水,骂归骂,很多人还是没搞懂:到底谁在拿走我们的钱?其实,涨价的真正推手不是 OpenAI,而是用 GPU 锁住 AI 底价的英伟达。

ChatGPT 涨价的讨论又冲上了首页。

Plus 到手价从 20 美元涨到 22 美元、美区 Team 从 25 美元涨到 30 美元,Claude 在 20 美元的 Pro 之外,又新增了 30 美元的 Team 档和 Max 档,

有人骂贵,有人觉得情有可原,更多人开始意识到:AI 正在进入一个「越用越贵」的时代。

可顺着成本链条往下看,会发现涨价的真正推手既不是 OpenAI,也不是 Anthropic,而是 Nvidia。

所有 AI 公司都在为它的 GPU 付账,用户最终为这条链买单。

涨价的起点:算力被 Nvidia 推上去了

外界把涨价的矛头指向 OpenAI,可真正把整个行业往贵的方向推的,是算力成本。

把「算力」 这两个字拆开看,其实就是三个字:英伟达

据 The Information 报道,这一轮涨价背后,是 Nvidia 的现金流在过去两年里出现了几乎前所未有的爆炸性增长。

截至 2023 年 1 月,它的自由现金流只有 38 亿美元;到了明年,预计会飙到 965 亿美元,三年复合增长率高达 194%。

短短四年,它的自由现金流放大了二十多倍。

这种增速,在 1990 年以来的大型科技公司里都极为罕见,能勉强靠近的只有 iPod 刚问世那几年的苹果,但幅度仍不及 Nvidia。

Nvidia 的自由现金流在四年内接近百倍暴涨,远超 Meta 与 Apple 在各自巅峰时期的增速

这种增长不是凭空出现。

2023 年 ChatGPT 爆火后,全球科技公司一齐冲向 Nvidia 订购 AI 芯片。

Google、Meta、微软、亚马逊在 AI 上的投入全面上升,它们疯狂扩建数据中心、抢购 GPU,Nvidia 直接变成算力时代的核心供货商。

ChatGPT 点燃 AI 浪潮后,Nvidia 的营收与自由现金流在四年内直线上冲,远超资本开支的增幅,形成史无前例的「现金喷泉」

The Information 在报道里提到一个关键趋势:谷歌、Meta、亚马逊和微软因为大规模购入 Nvidia 的 GPU,自身的自由现金流被明显压低,可用来维持「免费服务」的现金池变小了。

我们看到的那些「免费额度减少」「会员涨价」「高级模型限流」,都和这一点息息相关。

巨头为了继续做 AI,只能把算力成本摊给用户。

与此同时,Nvidia 的的现金储备也在持续膨胀。从 2023 年初大约 130 亿美元,上升到今年 10 月底的 600 亿美元。

分析师预计,从现在到 2030 年,Nvidia 累计会创造接近 8500 亿美元自由现金流。

分析师预计 Nvidia 在 2027 — 2030 年的自由现金流将持续走高,到 2030 年逼近 3000 亿美元

这一总量,被认为已经明显高于分析师对 Google、亚马逊、Meta、微软同一时期自由现金流的预期,也高于苹果被预计产生的自由现金流。

现金被掏空:巨头把成本转嫁给用户

当 Nvidia 的现金曲线开始向上「跳档」时,产业链的另一边已经有些吃不消了。

Google、Meta、微软、亚马逊这几家最能赚钱的公司,过去两年都在加速扩建 AI 计算集群。

它们的资本开支成倍增长,而自由现金流却被显著压缩。

也就是说,它们花的钱比以前多,手里能自由支配的现金却比以前少。

这个变化直接影响了整个 AI 服务的收费方式。

在此之前,巨头还能靠广告、云服务、硬件补贴用户,让产品保持免费。

但当数据中心不断扩建、GPU 价格居高不下,它们第一次发现:AI 服务不能再无限免费了。

于是我们就看到:强模型被放进更贵的付费层,免费额度开始收紧,订阅费一点点往上挪。

这些公司的商业模式没什么本质变化,它们只是被迫承认一个现实——算力成本持续上升,如果价格不调整,就只能长期亏钱。

更关键的是,Nvidia 不只卖芯片,它还在投资、扶持整条下游链条。

Anthropic、CoreWeave、Lambda 这些云和模型公司,都在它的生态之内;最近它和微软一起宣布,未来几年最高会向 Anthropic 投入 150 亿美元,其中 Nvidia 自己的部分最高可达 100 亿美元。

有这么多的需求,GPU 的价格就很难往下走。

巨头买 GPU 的成本压不下来,AI 产品自然也不可能回到过去那种「想用多少用多少」的时代。

供应商变金主:Nvidia 把 AI 底价锁死了

所以问题已经不再是「为什么涨价」,而是:为什么未来几年 AI 的价格都很难降下来。

原因不是市场竞争不够,而是 Nvidia 已经在用另一套逻辑,把整个 AI 行业的基础结构提前固定住了。

The Information 提到 Nvidia 的几个关键操作:

向 Anthropic 投入 100 亿美元与 OpenAI 商谈规模高达千亿美元级别的长期合作;支持 CoreWeave、Lambda 等云厂商扩建算力替一家云公司担保数据中心租约,换取未来的 GPU 订单

这些看起来像是财务投资,实质是一种「提前绑定」:谁来买卡、买多久、买多少,Nvidia 都提前把关系锁好了。

被绑定的公司规模越大,算力需求越高,Nvidia 的收益也越高。

再叠加 CUDA 的生态壁垒、台积电的产能限制、替代方案的落地周期这些现实因素,很容易得出的结论:行业短期内根本离不开 Nvidia。

一旦离不开,成本就不会降。

就算巨头有心拉低价格,也会被供不应求的 GPU 和已经锁定的产能限制。

对用户来说,这意味着 AI 会越来越强,但「免费时代」几乎不可能回来了;更好的模型,会停在更高的价格层;按量计费会变成常态。

整个行业已经切到一条不会轻易反转的轨道上。

成本不会突然降低,价格自然也不会。

过去一年,我们习惯把 AI 看作一种「能力爆发」,但 Nvidia 的曲线提醒我们,背后还有一场静悄悄的基础设施重构。

当算力被锁定,当供应链被提前写入未来,当整个行业都围着同一个底层旋转——价格就不再只是市场行为,而是一种结构性趋势。

你的时间、你的技能、你的效率,也会在这条曲线里被重新定价。

成本会上升,但它推动的,未必只有负担,也可能是价值的整体抬升。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

nvidia 英伟达 ai 自由现金流 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论