Token,Token,还是 Token。
在 12 月 18 日的 FORCE 原动力大会上,火山引擎总裁谭待半小时的开场演讲里提了 18 次 "Token",而 " 云 " 则只出现了 7 次。
火山也再次更新了备受瞩目的豆包大模型最新日均 Token 调用量:
50 万亿。

这一指标从发布至今实现了 417 倍增长,相比去年 12 月则是超 10 倍增长。作为对比,Google10 月最新公布的月均 Token 直接换算为日均量的数据是 43 万亿。豆包大模型的调用量已经是中国第一、全球第三。
而根据 IDC 的报告,火山引擎在中国的公有云大模型的服务调用量上也是稳居第一,MaaS 市场份额从 2024 年的 46.4% 进一步提升到了今年的 49.2%。
" 也就是说,在中国公有云上每产生的两个 Tokens 就有一个是火山引擎生产的。" 谭待在当天面对台下 5000 名观众说道。
在当天的发布中,一如既往由火山来更新了字节最新模型的进展。
豆包大模型 1.8 正式亮相,它在多项指标上显著提升,继续走 All-in-One 的技术路线,文字、代码、Agent、音频,图视频等能力,全部在同一个基础模型里演进;而专门为视频生成服务的 Seedance 1.5 pro 也同步推出,在音画同步、中文及方言处理上做到了 " 世界领先水平 "。
字节要传达的信息明显:豆包大模型创造着 Token,且它的进化方向也正对应着今天 Token 消耗的结构性变化——从 " 推理取代训练 " 推动 Token 消耗,到今天多模态 +Agent 成为 Token 的绝对大头,这些需求都可以被火山提供的服务满足。
这一切迅猛增长的背后,火山引擎正在建立起一套它自己的 Token 经济学。
更多的 Token 就是代表更多智能
Token,是大模型处理信息的基本单位。无论是文字、图像还是视频,在模型中都在被转换为 Token 序列进行计算。本质上,Token 就是人们对 AI 的调用量。
但这背后存在一个问题:由于 Token 的计算方式基于长度,所以一篇文章和一段关键的代码可能消耗相似的 Token 数量。那么,纯粹的以 Token 数量来衡量,能否真实反映 AI 创造的价值?
火山引擎的算法人员在和我们的交流中回忆,其实曾经火山内部也有过类似争论,但最终的结论是:Token 量一定是对的指标。

"AI 要在实际场景产生价值,大家肯定要把它用起来,不管单位价值有大有小,但实际上一定是跟 Token 用量正相关的。可能你最终的那个关键决策对应的只是‘是’或者‘否’,一个 Token,但得出这个结论必然已经用掉了大量 Token。"
所以火山内部最终明确,更多的 Token 就是代表更多智能。
而今天 Token 的增长,其内在结构也在悄然变化。火山引擎智能算法负责人吴迪提供了一个演化路径:
" 可能到了 2027,2028 年,一个普通的 C 端用户从 AI 助手得到的很多的信号就是视觉的,你不会看到大段大段的文字了。那么,到时候 LLM 会以 coding 和 agent 的形式下沉到整个数字世界的底层运行逻辑里。"
换言之,Token 会分层,LLM 会向下成为底座,多模态的视觉、交互 Token 将在上层涌现。
这就会让 Token 成为一个持续增长的指标,也是一个有效指标。吴迪预测,到 2030 年,国内市场的 Token 消耗量将是现在的百倍以上。届时,衡量企业智能化程度的核心指标,将从其拥有的 GPU 数量转变为消耗的 Token 总量,因为它是唯一能同时穿透 " 模型能力、使用频率和真实需求 " 的统一指标。
云设施必须以模型为中心重构
更多 Token 意味更多智能,那么如何让企业客户更好生成它们需要的 Token,就是火山作为从字节内部走出的 "AI 云原生 " 基础设施的任务。
过往云计算所习惯的一整套体系也因此出现 " 不适 ",它更多是一个围绕算力设计的体系,而火山认为新的需求注定是围绕模型的。
" 传统 IaaS、PaaS、SaaS 分层规划的 IT 架构不再有效,以模型为中心的 AI 云原生架构正在形成。" 谭待说。

此次的一整套体系也由此诞生。
火山推出了 " 推理代工 ",企业可将训练好的模型托管至火山,按实际 Token 消耗付费,无需自建推理集群;
Agent 开发套件(ADK) 全面升级,支持动态运行时、多会话共享、强身份传递与内置工具链;
智能端点(Endpoint) 支持模型路由,可根据效果、成本等策略自动分流至豆包、DeepSeek、Kimi 等多模型后端;
方舟平台进一步升级,支持客户在自有场景中做 RL 强化学习等的微调。
而且这一系列产品里的很多细节,都体现出很多根本性差异。
例如,Agent 开发套件(ADK) 的动态运行时设计,直接挑战了行业惯例。AWS AgentCore 为每个会话启动一个独立运行时,而火山采用多会话共享模式。
火山引擎云基础产品负责人田涛涛直言,这是一个行业惯性的问题,AgentCore 为每个 session 起一个 Runtime,过去可以,但进入模型时代就太奢侈了,而火山对成本敏感,字节自己内部就一直有不同的更 AI 原生的需求,因此本就有不同的设计,现在可以推广给更多模型用户。
在火山看来,人们最终会 " 跃过 " 对算力的关注,最终直接冲着模型而来。
" 你很难想象五年后新的创业者还会去云上租 GPU、开数据库。到时候在他们创业的第一天,他们会直接向云服务商‘要 Token ’,直接要的就是调用模型和配套工具。"吴迪说。
" 我们已经把像 Response API、分布式的 KV Cache、良好的 P/D 分离、一大堆高品质的内置 Tools 组装好了,等着你把你的一个齿轮装上来,这辆车就能跑。"
火山还配套改进了模型服务的定价模式,推出了一个 "AI 节省计划 ",让企业达到模型使用成本的全局最优解。
" 客户只需要为用了的 Token 付钱。"
模型训练和市场需求一杆子打通
现在我们可以来看看字节和火山今天已经有了什么:
· 最大规模的云计算需求:内部支撑抖音等国民级产品带来的规模效应和成本优势。
· 最多用户的大模型产品:豆包。而且在火山的视角,它也是一个最大的 Agent 产品。
· 第一的 Token 调用量:50 万亿 / 天,且还在猛涨。
· 以及支持着豆包 app 和抖音这种巨量真实需求的多模态和推理大一统的豆包大模型。
这种全栈系统能力是今天最重要 AI 玩家必备的能力,横向对比,可以把目前的玩家分为三种路线:
OpenAI + 微软路线:模型自己的,云设施是战略伙伴的。
阿里云路线:开源模型长在自己云上,然后近期在强推产品。
Google 路线:全部自研,模型闭源,产品到研发直接全面打通。
这里面,字节的路线很像 Google。
豆包就对应着 Gemini,一个大一统的多模态 agent 模型。Seedance 1.5 紧跟 Veo3,甚至超过了对方。这一切的技术基础也和 Google 类似,都长在自己的以 AI 为核心的机器学习平台和云服务上,然后这些 "Gemini 同款 " 和 " 豆包同款 " 细化成产品再提供给外界。
而尚未被太多关注到的另一个 " 相似 ",则是对待模型技术的方式上。
Google 在 Gemini 3 的 " 翻身仗 " 后分享了很多内部复盘,其中最重要一个因素就是模型、研发、产品和需求的统一打通。而字节如何训练模型此前并未被外界了解,它与大多模型公司一个非常大的不同是,它把真实市场需求直接一杆子打通到了模型训练层面。
火山引擎作为模型对外统一的出口,也有自己的算法人员,他们和字节的模型部门 Seed 紧密合作,甚至是 " 混合办公 " 和各种灵活的配合方式,而火山引擎团队所获取到的市场需求情况,可以直接影响模型研发方向和决策。
火山的模型策略团队会把市场上的需求反馈收集和抽象出来,直接影响到模型的重要功能和研发方向。
这都直接体现在豆包大模型的身上:
豆包之所以是一个大一统的模型,除了技术路线的选择,也是从客户体验出发:火山的客户们认为模型版本太多了,甚至字节内部的 " 用户 " 都搞不清楚各方面的区别,所以这个模型必须 all in one 来降低选择成本。
字节认为,今天训练模型最重要的是评估体系,而它绝对不应该只是公开的 benchmark,必须用真实业务价值来衡量模型能力。字节内部已经为 B 端建设了大量 benchmark,模型开发成果必须真正符合实际的经济价值要求。
于是 Seedance 会在模型层面增加一个 Draft 样片的能力,让用户不是抽卡,而是提前做预览判断;豆包模型在建设工具调用能力之外,直接在配套 API 中就配套做了许多 built in 的工具。128k 上下文这种看起来能用来炫技但事实上实际需求并不高的能力,就会被去掉。
" 在 25 年,有超过 100 万家企业和个人使用了火山引擎的大模型服务,覆盖了 100 多个行业,我们也对他们在火山方舟上的用量进行了匿名统计,我们发现,有超过 100 家企业在火山引擎累计 tokens 使用量超过了 1 万亿。" 谭待在发布会上说。
这可能是比市场份额增长更值得玩味的一组数据。 它最能体现字节这种用需求指引模型发展的方式所带来的收益。

所以,如果我们来拆解一下,字节的 Token 经济学就是:
越多的 Token 意味越高智能
Token 是智能的度量衡,其增长与结构变化指引技术演进。
服务 AI 的云必须以模型为中心重构
传统云厂商的惯性已经太大,而火山服务的最大客户就是字节自己,字节就是一个长在 AI 和模型上的公司,火山解决的一直是 AI 的需求,现在这些需求变成外界的广泛需求,它的技术思路就可以用来重构整个云行业的方案。
Agent 的普及会让 Token 从原材料变为更高级的智能单元,进而带来更大价值
谭待曾经形容,目前基于 Token 的商业模式还很原始,而今天他认为,随着 Agent 的进步和在企业里的普及,Token 最终会走出今天 " 原材料 " 的定位。
Agent 可将模型串联,云平台和中间件进一步把 Tokens 组装成 Agents,并实现 Agent 和现有工作流、Agent 和 Agent 之间的智能互通,以 API 或完整 Agent 的方式提供服务,从更高抽象层次创造价值。
" 今天讨论 Token,是从底层操作系统角度看,是在 IT 预算环节考虑;而抽象成 Agent 后,可从 BPO (业务流程外包)角度看待,那么它就是在扩大整个市场的规模了。" 谭待说。
" 人们常说的 10 万亿 Agent 市场,核心就是这个逻辑。"


登录后才可以发布评论哦
打开小程序可以发布评论哦