极客公园 2025-12-29
一年 200 次更新,字节 TRAE 如何拿下全球 600 万开发者
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

性能、全能、智能的全方位突破。

作者|Cynthia

编辑|郑玄

2025 年末的 AI 编程圈,分别来自中美 AI IDE 第一玩家的两条最新消息,为本就热闹的市场再添一把新柴。

12 月 26 日,字节跳动旗下 AI 编码工具 TRAE 发布了首份年度报告,并在其中披露:发布不到一年,TRAE 共计为全球用户生成近 1000 亿行代码,处理了 5 亿条开发查询。其全球累计用户数量已经突破 600 万,覆盖近 200 个国家和地区,月活攀升至 160 万。

这是什么概念呢?开源项目分析机构 OpenDigger 做过一个统计,全球 GitHub 活跃开发者总量为 7700 万。基于这个数据,换算一下的话,全球每 13 个开发者中,就有 1 个正在使用 TRAE

更关键的是增长势能与用户粘性,近半年 TRAE Token 消耗量暴涨 700%,6000 名核心用户全年使用天数超 200 天,国际版付费用户更是实现自然周全勤。

几乎在同一时间,同赛道的另一匹黑马 Cursor 传来融资捷报:11 月 14 日,Cursor 母公司 Anysphere 完成 23 亿美元融资,估值飙升至 293 亿美金,这一数字超过了国内大模型六小虎的估值总和

然而,就在一年前,行业对 AI IDE 的评价还充满鄙夷:魔改 VS Code+ 套壳大模型、只能哄骗没开发经验的小白、生产环境没法用……类似的嘲讽在技术社区随处可见。

短短一年,口碑两级逆转背后,行业到底发生了什么?

通过复盘 TRAE 2025 年累计超 200 次的迭代细节,我们发现,这场质变的答案,就藏在性能、全能、智能,这三个行业关键词中。

01

性能:AI Coding 落地生产的基石

2025 年,当整个大模型产业的主题,从前一年的百模大战快进到  AI IDE 井喷,市场的关注重点,也从是否具备某种能力的选择题,升级成为了用户体验如何的应用题。

性能正是 AI IDE 逆袭的核心逻辑之一。

TRAE 年度报告中的数据给出了佐证:6 月至今,TRAE 的补全延迟降低 60%+,客户端首 Token 耗时降幅达 86%;9 月以来,TRAE 首次构建耗时减少 70%+,非首次构建耗时减少 80%;稳定性层面,TRAE 的 MacOS 崩溃闪退率降至 0.43%,Windows 系统降至 0.71%,补全成功率和会话成功率均提升至 99%+,面板进入成功率更是高达 99.93%。

当然,这些工程层面的优化,往往不是各种榜单测评中的重点,但对开发者的实际体验却至关重要:

这意味着他们可以不再因等待补全中断思路,也无需因工具闪退重复劳动;也同时意味着,AI 编程工具的可用性与稳定性,已经跨过了从 demo 到生产环境的关键一步

字节内部的实战正是最好的证明:据了解,字节内部 92% 的工程师在都使用 TRAE 加速开发进度;其中,抖音生活服务在 DevOps 全链路中接入 TRAE 后,AI 的代码贡献总量占比达 43%,约等于提升近一倍的人效比。

但性能的提升只是落地生产的第一步,如何打造完整的开发体验,才是今年下半年以来行业的关键赛点。

02

全能:全流程开发的全链路打通

性能达标后,今年下半年起,AI 编程工具的竞争就从代码补全、检索等单点任务,升级至全流程覆盖的完整解决方案。

这场竞赛中,Cursor 和 TRAE 的迭代路径极具代表性。

2025 年 10 月,Cursor 正式发布 2.0 版本,宣布支持多模型并行执行、内置浏览器代码测试及语音转码功能,目标直指全流程开发。

而 TRAE 的布局更早:7 月从 1.0 阶段(插件 +IDE)升级到 2.0 阶段(SOLO Beta),集成编辑器、终端、浏览器等多工具视图,打通从需求构思到代码落地的完整链路;11 月再推 3.0 阶段 SOLO 正式版,主打「The Responsive Coding Agent」,完成从工具集成到智能协同的升级。

体现在产品设计上,截止如今,TRAE 的 IDE 模式,其核心支撑体系包含智能体、MCP(模型上下文协议)、上下文管理、Cue 四大模块,SOLO 模式在此基础上又进一步强化了对话流、工具面板和上下文管理能力。

其中,值得一提的是,SOLO 模式中的 SOLO Builder 可直接处理 PRD、技术架构文档,并集成了 Figma、Supabase、Stripe、Vercel 等主流工具。而这也意味着,AI 编程软件有了覆盖完整开发的全流程,在连续、多轮、更复杂的项目中承担了更多实质性工作的能力。

支撑这种全能性的,则是行业在上下文管理和工具调用能力上的突破,这也是企业级用户选择专业 AI IDE 而非原始大模型的核心原因。

先看超长上下文管理能力。企业级项目对历史代码的调用、复用程度极高,部分大型项目复用率甚至超过 80%,但海量代码的处理的是大模型的天然短板。

以 Google Chrome 浏览器为例,其代码量达数百万行,按每行代码 5-10 个 Token 计算,完整加载需上千万 Token,远超当前大模型 20 万 Token 左右的普遍上下文窗口。

专业的 AI IDE 则能够针对这一问题,通过引入向量数据库构建 RAG,或者对历史内容进行修剪、分类、优化、压缩等操作,进行上下文管理,从而保证海量代码搜得到的同时,也不会产生过长的上下文,撑爆大模型。

比如 TRAE SOLO 的解决方案就是同时引入以上两种模式,既支持一次检索 10 万个代码文件,通过索引构建实现全仓库的上下文覆盖,让庞大项目的开发不再受限于模型上下文窗口的局限;同时也推出了智能压缩机制,当上下文超过窗口限制时,可以自动压缩,也允许用户手动触发压缩,释放上下文资源,提升模型输出效果。

除此之外,考虑到实践中的上下文类型的多样化,TRAE 还支持 10 余种上下文类型的添加,包括  (文件)、(文件夹)、(文档)、(代码)、(设计稿)、(图片)等。

如果说更强的上下文检索与更强的大模型,让模型可以深入大型、企业级项目的开发;那么工具使用能力的进化则带来了更好的四肢,支撑起 AI c 编程软件在企业级项目中的全流程覆盖。

TRAE 目前支持的 MCP,涵盖浏览器自动化(Chrome DevTools、Playwright)、AI 辅助推理(Sequential Thinking)、系统工具(文件管理、命令执行)、专业工具(IDA Pro 反汇编、Supabase 数据库操作)等多个品类,总数量达 1.1 万个。

借助以上海量工具的接入,企业真正实现了项目不同开发环节在同一流水线上的高效、无损对接:比如,集成 Figma 实现了设计稿直接转代码,解决了前端开发中设计与开发的衔接痛点;集成 Supabase 打通了数据库操作链路,无需切换工具即可完成数据层开发;Stripe 的集成则让支付功能开发无需重复对接第三方接口;Vercel 的接入则实现了代码编写与部署的即时联动。

体现在实际项目中,就是过去开发一个带支付功能的 H5,企业要在设计工具、编辑器、数据库工具、部署平台间反复切换,现在用 TRAE SOLO 模式,一个界面就能完成所有操作。

但问题是,专业项目中,AI 产出的代码,我们真的能相信它吗?

03

智能:如何实现 AI 自主能力与可控的平衡

一组有趣的对比是:进入今年十月以来,AI 编程赛道掀起了一股 Agent 热:从开源代码平台 GitHub,到大模型玩家 OpenAI,再到主流 AI IDE 产品 Cursor 、TRAE 全数下场,试图让 AI 能够自主理解开发目标、承接上下文并自主调度工具,独立推进开发各阶段任务。

产品

2025 年 10 月 -2025 年 11 月

核心 Agent 能力

GitHub Copilot

上线 Agent HQ 平台

Claude Code、 Codex、Jules 等多源 Agent 统一管理、面向特定任务、可定制

OpenAI Codex

开发者大会正式发布

可以把支持 Codex CLI 的 agent 嵌入工作流、工具和应用

Cursor

2.0 版本迭代上线

多 agent 并行,支持多个 Agent 解决同一问题、支持自动测试代码

TRAE

Solo(正式版)对外发布

定位 The Responsive Coding Agent,以 AI 为主导,能够理解开发目标、承接上下文并自主调度工具,独立推进开发各阶段任务

TRAE SOLO 正式版,无疑是其中增长最为迅速的一个:数据显示其国际版 SOLO 模式从 Beta 到正式版,用户累计渗透率达 44%,问答规模暴涨 1300%。中国版 SOLO 上线后,每 10 位 TRAE 开发者中就有 3 位采用 SOLO,问答规模增长 7300%,用户交互深度提升 74%。

但供给侧的狂热,与需求侧的警惕形成对比:近期多家大厂陆续出台 AI 编码限制政策,泄密之外,AI 生成项目 BUG 过多成为核心顾虑。在实际生产中,AI 花两分钟生成的代码,常常需要程序员用 20 分钟 review,然后再花两小时改 Bug。

对比背后,是 AI 编程的致命两难:要如何在提升 AI 自主性的同时,保证代码的可控性和可追溯性?

TRAE 的解法是将「结对编程」理念融入 AI 工具设计。

这一诞生于 XP 敏捷开发的概念,核心是两个角色协同:驾驶员负责敲代码、关注细节,导航员负责把握方向、发现问题。

TRAE SOLO 将这种模式升级:当用户使用 SOLO Coder 智能体时,可以勾选「Plan」模式,AI 收到任务后不会直接写代码,而是先输出详细的开发计划,开发者可以与 AI 反复沟通方案,明确开发阶段、任务拆分和技术选型,直到达成共识再推进开发。

此外,在大型项目中,牵一发而动全身,如果 AI 生成的代码不规范、黑盒过多,短期看似高效,实则将项目风险后置,形成技术债务雪球越滚越大,且难以修复。

因此,Reddit 上一度流行一个段子:本来代码写出来只有作者和上帝能看懂,用了 AI coding 之后,就只剩上帝能看懂了。

针对大型项目这种对标准化的更高需求,TRAE 推出了自定义智能体功能。开发者可以根据项目的开发规范、流程要求,创建专属智能体,让 AI 生成的代码天然符合团队的编码习惯和质量标准。

数据显示,TRAE 中国版 57% 的用户会使用多于一种智能体,国际版 84% 的用户会使用多于一种智能体。TRAE 累计成功创建 / 编辑的自定义智能体达 36.5 万个。

04

结尾

过去一年多,关于 AI 编程,行业一直有一个疑问:当大模型的能力已经足够强大,甚至能直接通过对话生成代码时,我们为何还需要专门的 AI IDE 软件?

前 a16z 合伙人 Benedict Evans 在近期做客老东家播客时,给出了答案:当你与空白的原始聊天机器人对话时,你的提问不仅要说明想要什么,还要包含实现这件事的所有细节。

换而言之,好的产品是能力与经验的封装,最终交付给用户的是解决方案,大模型只是被封装的内容之一。而用户打磨实现细节、交付完整解决方案。

从这个角度来说,TRAE 本质上是字节的先进代码开发经验,以及大模型能力的深度封装。

而位列国产 AI IDE 第一的 TRAE,其本质,正是一个「伪装」成 AI IDE 形态的字节能力全家桶 RAR。

* 头图来源:TRAE

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO

极客一问

你如何看待  TRAE

热点视频

ChatGPT 再进化,富文本编辑上线,文书处理一步到位

点赞关注极客公园视频号,

观看更多精彩视频

更多阅读

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 字节跳动 融资 编程 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论