人工智能能力的跃升速度,正在让最严谨的预测者也措手不及。
知名 AI 预测研究者 Ajeya Cotra 近日公开承认,她仅在两个月前发布的 2026 年 AI 进展预测已显著偏于保守。触发这一自我修正的,是 Anthropic 最新模型 Claude Opus 4.6 在权威评测机构 METR 基准测试中的表现,该模型的软件工程 " 时间跨度 " 已达约 12 小时,远超 Cotra 此前预测的 2026 年底约 24 小时水平。这意味着 AI 在软件工程领域的实际进展,比她的预测提前了近十个月。
更具冲击力的是,Cotra 随之上调了对 "AI 研发全面自动化 " 的概率判断。她将今年年底前 AI 完全接管研究构想与实施、无需人类介入的概率维持在 10%,并明确表示:" 这是我第一次找不到任何可以外推的稳固趋势,来断言这件事不会很快发生。" 这一表态在 AI 预测圈引发广泛关注。
Cotra 曾在全球最大 AI 安全资助机构之一 Coefficient Giving 担任 AI 安全研究资助负责人,目前供职于 METR ——一家专注于 AI 能力评估的机构。
预测落空:两个月前的判断已经过时
今年 1 月 14 日,Cotra 基于 2019 年至 2025 年间时间跨度约每年翻倍不到两次的历史趋势,预测 2026 年底最先进模型的 50% 成功率时间跨度约为 24 小时,80 百分位预测为 40 小时。
然而,仅在她发布预测约两个月后,Opus 4.6 便被评估为具备约 12 小时的时间跨度。在 METR 测试集中,19 项被估计需要人类耗时超过 8 小时的软件工程任务里,Opus 4.6 能够至少部分完成其中 14 项,并稳定攻克其中 4 项。Cotra 坦言,在此后还有整整十个月进展的情况下,AI 代理仍在 24 小时任务上有一半时间失败," 已经不再可信 "。
值得注意的是,Cotra 同时提示,当前时间跨度估算的不确定性显著上升—— Opus 4.6 的 95% 置信区间为 5.3 小时至 66 小时,部分原因在于长任务数量稀少、人工完成时间多为估算,且基准测试本身已接近饱和。
能力边界:传统评估框架正在失效
随着 AI 代理能力逼近乃至超越数十小时的任务量级,Cotra 认为 " 时间跨度 " 这一概念本身的适用性正受到挑战。
她指出,任务的可分解性随规模增长而显著提升:一小时的调试任务几乎无法拆分并行,一天的开发任务勉强可以分工但边界模糊,而一个月乃至数月的项目则天然适合拆解为多个并行子任务。一旦 AI 代理能够稳定完成 80 小时量级的任务,理论上便可通过 " 管理层 AI" 分配任务、" 执行层 AI" 并行推进的方式,持续推进任意规模的项目。
Cotra 的同事 Tom 因此提出,以大型团队完成任务所需的日历时间,而非单人工时,作为衡量 " 内在难度 " 的更优指标。Cotra 认为,随着 AI 进入这一新量级," 单人时间 " 指标可能开始呈现超指数增长,使得年底前软件工程能力的上限极难估算。
她同时承认,这种大规模任务分解在实践中不会完美运作——项目参与者对全局背景的直觉性把握,难以被 Jira 工单或 Asana 任务完全替代。但她认为,对于相当大一类软件项目而言,这种模式 " 可能出乎意料地有效 "。
关键节点:AI 研发自动化今年或成现实
在所有预测中,最受关注的是 Cotra 对 "AI 研发全面自动化 " 的概率判断。
她将这一概率定义为:AI 系统完全承担研究构想与实施工作,无需人类参与。在 1 月的预测中,她给出了 10% 的概率,并在发布后收到多位 AI 预测领域同行的反馈,认为这一数字偏高。但在 Opus 4.6 的表现出炉后,她表示 10%" 再次感觉处于合理区间 "。
Cotra 同时保持审慎。她指出,全面自动化 AI 研发不仅需要软件工程能力,还需要在 " 研究判断力 " 和 " 创造力 " 等方面取得突破,而这些恰恰是当前 AI 系统相对人类研究者仍明显欠缺的领域。她认为,这一目标在未来三至五年内实现的可能性,远高于今年之内。
但她的措辞已发生根本性转变:" 这是我第一次,找不到任何可以外推的稳固趋势,来断言它不会很快发生。"


登录后才可以发布评论哦
打开小程序可以发布评论哦