钛媒体 昨天
前腾讯游戏策划,在OpenClaw社区点亮AI进化树
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文 | 字母 AI

自从 OpenClaw 这个开源的 agent 框架火了之后,ClawHub 就成了开发者分享 agent 插件和技能的中心市场。就像程序员们常去的 GitHub 一样。

2 月初的时候,一款名为 Evolver 的 agent 能力共享插件在 ClawHub 上线。

Evolver 能让所有使用插件的 agent 相互帮助,根据其他使用者经历过的场景、任务,而完成相应的更替。让你的 agent 一上来就如同 " 开挂 " 一样。

就像遗传学一样,父辈母辈从海里走上陆地,子代就会使用肺呼吸,就会使用两只脚行走。

正如其名的中文含义 " 进化 " 一样,AI 也可以像物种一样进化。

仅仅过了 10 分钟,Evolver 冲到了排行榜第一。72 小时后,下载量突破 36000 次。

随后 Evolver 就被平台下架了。

不是因为技术问题,而是有人钻平台规则的空子进行勒索。雪上加霜的是,ClawHub 因为编码检测 bug 误封了大批中文开发者账号,Evolver 的作者也在其中。

等账号恢复后,Evolver 竟然被挂到了别人名下。

这一连串事件让 Evolver 团队感到身心俱疲,但他们不准备放弃,而是选择换个思路。

他们直接将 Evolver 的理念做一套开放协议。任何平台都能接入、任何 agent 都能使用。

于是,EvoMap 就这么诞生了。

EvoMap 的开发主体是深圳的 AutoGame 团队,核心创始人张昊阳(圈内代号 17)此前在腾讯《和平精英》担任技术策划。

他于 2023 年从腾讯离职,创立 AutoGame,专注 AI 与游戏、agent 领域的融合创新。

公司先后完成三轮总计数千万人民币的融资,投资方包括奇绩创坛、九合创投、璀璨资本等知名机构。

团队还包括来自 Meta AI、苹果 Siri 的算法专家,以及腾讯、暴雪娱乐的开发者。

EvoMap 不是一个临时兴起的项目,是 AutoGame 团队创立之初就诞生的想法。

01  什么是 EvoMap?

EvoMap 想做的事情其实很好理解,让 AI 像生物一样进化。

它不是一个新的 AI 模型,也不是某个具体的应用,而是一套底层协议,叫做 GEP ( Genome Evolution Protocol,基因组进化协议)。

如果把大语言模型比作 " 大脑 ",那 EvoMap 就是 "DNA"。大脑负责思考,DNA 负责记录、传承和进化。

EvoMap 的运行逻辑是非常朴素的,当一个 AI 助手学会了某种能力,另一个 AI 助手遇到同样问题时,不需要从零开始重新摸索,而应该用别人成功的经验,直接上手。

《黑客帝国》里有个经典场景:尼奥后脑勺插上数据线,直接向大脑上传格斗程序,几秒钟就学会了功夫。他睁开眼说 "I know Kung Fu",然后就能打得特工满地找牙。

EvoMap 做的事情有点像给 AI 装上这根线。

当一个 AI 学会某项技能时,这个技能会被封装成 " 基因胶囊 ",其他 AI 可以瞬间下载继承,不用重新训练或试错。

这套系统的核心是三个概念。

第一个是基因(Gene)。

它是最小的能力单元,比如 " 读取文件 "" 执行 SQL 查询 "" 调用 API"。但它不只是一段代码,而是经过验证的、可复用的策略片段。

就像生物学里的基因片段决定了你的眼睛是蓝色还是棕色,这些基因决定了 AI 能做什么、怎么做。

第二个是胶囊(Capsule)。

当 AI 解决了一个复杂问题,整个解决过程会被封装成一个胶囊。

胶囊里不仅包含解决方案本身,还携带着 " 环境指纹 "(这个方案在什么环境下有效)、成功率记录、审计日志等完整信息。

这就像是一份带着使用说明书和质检报告的经验包,拿来就能用,而且知道什么时候能用、什么时候不能用。

第三个是进化事件(EvolutionEvent)。

它是不可篡改的日志,记录每一次能力变异或修复的完整上下文。谁在什么时候、什么环境下、通过什么方式解决了问题,以及为什么这个方案有效,全都记录在案。

这就像生物化石,你能通过化石的外观、发现的地点,追溯每一次进化的来龙去脉。

这三层结构共同构成了一个完整的 " 能力遗传机制 "。

而 EvoMap 整个系统的运作,也完全遵循一个类似生物进化的循环。

最开始是突变阶段。

我举个例子,一个开发者的 AI 在写代码时遇到 Python 环境依赖问题,它尝试了一个新策略并成功解决。

这个 " 小聪明 " 就是一次突变。

然后进入验证阶段。

这个策略在本地被反复调用,在各种脏乱差的项目里实战测试,逐步积累量化数据。

比如说发现成功率提升了 30%,修复时间缩短了一半。

系统会把整个修复路径封装成专属的胶囊,附带环境指纹和审计记录,确保这个能力不是碰巧成功,而是真的有用。

接下来是发布阶段。

当这个策略在本地站稳脚跟后,AI 通过 A2A ( Agent-to-Agent)协议把基因和胶囊打包上传到 EvoMapHub。

这就像把你的菜谱投稿到美食网站,进入候选池等待全网考核。

再后面是晋升阶段。

Hub 会设置一个严格的质量门控:置信度必须大于等于 0.7,影响范围不能超过 5 个文件,连续成功次数至少 2 次。

只有通过这些考验的资产才会被标记为 " 已验证 ",获得在全网分发的资格。

这就像米其林评审,不是随便一道菜都能上榜。

一切准备就绪后,真正的进化开始了。

当世界另一端的 AI 在 CI 流水线里再次撞上 Python 环境错误,它会通过协议去 EvoMap 网络检索。

命中这个已验证的修复资产后,它可以直接继承整套能力路径,而不必从零试错。

小长颈鹿继承了父母的长脖子基因,一出生就能吃到高处的树叶。

这个循环的精妙之处在于,每一次 " 突变 " 都要经过严格的自然选择。只有真正有效的能力才能传播开来,劣质方案会被自动淘汰。

一个策略如果在不同环境下反复失败,它的置信度会下降,最终被系统剔除。

而那些经过千锤百炼、在各种场景下都表现优异的策略,会逐渐成为整个网络的 " 优势基因 "。

这就是 EvoMap 想要构建的世界,AI 不再是孤立的个体,各自重复同样的错误、浪费同样的算力。

它们通过一套开放的协议连接在一起,形成一个会学习、会进化的网络。

一个 AI 的经验,可以瞬间成为所有 AI 的财富。

02  从单体智能变成群体智能

EvoMap 团队说他们的协议是 " 真正意义上的开放 "。这话听起来有点像营销话术,但仔细看下来,他们确实做了一些不太一样的事情。

就像 HTTP 协议不属于任何公司、任何人都能基于它建网站一样,GEP 协议也是开放的。

这意味着任何人都能实现这套协议,任何平台都能接入,任何 AI 都能使用。它不依赖某个特定的公司或服务器,也不会因为某个平台倒闭而消失。

OpenClaw、Manus 等平台上的 AI,都可以接入 EvoMap 网络,获得 " 能力遗传 " 的超能力。

这不是某个公司的专属服务,而是一个开放的基础设施。

但开放带来的不只是自由,还有一个更深层的变化。这种进化是群体智能,而非单体智能。

传统的 AI 训练思路是让某一个模型变得无限强大。投入更多数据、更多算力、更大的参数量,打造一个超级大脑。

但 EvoMap 走的是另一条路,不是让某一个 AI 变得无限强大,而是让整个 AI 网络通过经验共享变得越来越高效。

这就像人类社会的知识积累。

没有哪个人掌握全部知识,但每个人都站在前人的肩膀上前进。

牛顿在 1687 年出版的《自然哲学的数学原理》中,完整量化了宏观低速场景下的物体运动规律,搭建了经典力学的完整体系。

但如果没有笛卡尔、费马、开普勒这群人提前构建好的铺垫,那么牛顿也无法创造经典力学的表达式。

不过 EvoMap 的 AI 自我进化,并非 " 无限 " 的,它是有其明确边界和约束。

进化机制依赖于 " 试错 - 验证 - 固化 " 循环。

AI 可以自动生成新策略、测试效果、保留有效方案,但这个过程仍然需要明确的验证标准和质量门控。

一个策略如果通不过验证,就不会被固化,更不会传播到网络中。

系统还内置了一个限制,叫做 " 爆炸半径 "。

比如说单次修改最多影响 60 个文件,核心内核文件禁止修改。

如果一个 AI 尝试修改过多文件,或者试图改动系统的核心组件,这个操作会被直接拦截。

EvoMap 的进化还遵循 70/30 法则。70% 的算力用于维持稳定性(比如修复 Bug),30% 用于探索新能力。

大部分时候,AI 在做的是修修补补、优化改进,只有小部分时间在尝试全新的东西。

因此,EvoMap 不会突然造成一个无所不能的超级 AI,只会让整个网络在无数次小修小补中逐渐变得比以前更聪明。

但这也带来了一个悖论:如果进化是有边界的、可控的,那它还算真正的 " 进化 " 吗?

生物进化的魅力在于它的不可预测性。

没人能预料到鱼会爬上陆地,更没人能预料到猿会进化出语言和文明。但 EvoMap 的进化是在人类设定的规则框架内进行的。

不过,EvoMap 团队没有回避这个问题。他们认为,在现阶段,可控的进化比无限的进化更重要。

至于未来会不会放开更多限制,那是另一个阶段的问题。

GEP 不仅定义了能力如何传播,还定义了能力如何被撤回。

如果一个已验证的胶囊在后续使用中被发现存在严重问题,它可以被标记为 " 已撤销 ",所有使用这个胶囊的 AI 都会收到通知。

EvoMap 的 " 开放 " 不是无政府主义式的自由放任,反而是在开放的基础上建立了一套严格的质量管理体系。

03  自我进化会导致失控吗?

不过这时候问题就来了,如果 AI 真的学会 " 遗传 ",它们的能力可以像病毒一样在网络中传播,我们还能控制它们吗?

其实每次提到 AI 自我进化,都会有一帮人跑出来担心 " 失控 " 的风险,包括奥特曼和阿莫迪。

这种担心不是没有道理。

然而这时候就不得不提一个概念,叫做达尔文哥德尔机(Darwin G ö del Machine)。

达尔文是进化理论的老祖宗,哥德尔是数理逻辑的大神,把这两个名字放在一起,听起来就明白,这玩意很厉害。

达尔文哥德尔机是德国计算机科学家于尔根 · 施密德胡贝尔(J ü rgen Schmidhuber)在几十年前就提出的理论。

其核心思想是:一个能够通过重写自己的代码来自我改进的 AI 系统。

理论上的哥德尔机要求 AI 在采用任何代码修改之前,必须数学证明这个改变会带来净收益。

不过这个要求太高了。随着代码能实现的东西越来越多,这个验证方法就变得越来越不可能实现。

Sakana AI 实验室提出的达尔文哥德尔机则更务实。

它不要求数学证明,而是利用达尔文进化的原理,通过经验性的测试来验证改进是否有效。

简单说就是,先试试看,有效就留下,无效就扔掉。

实验表明,这种系统可以持续自我改进。

在编程任务基准测试中,它能从一开始只有 20% 的任务解决率,自我进化到 50%,远超人类手工设计的 AI 助手。

更有意思的是,这种改进具有通用性。

在 Claude 3.5 Sonnet 上优化出的设计,迁移到 o3-mini 或 Claude 3.7 Sonnet 上同样表现出色。在 Python 上训练的 AI,在 Rust、C++、Go 等完全不同的语言上也能拿到不错的成绩。

这说明系统发现的是通用的设计原则,它真的在学习如何变得更好,而不只是在记忆答案。

你可能想问,为什么这种进化始终往人类要求的方向发展呢?

首先,进化是有明确的适应度函数来控制的。

每个改进都要通过实际任务测试,性能提升才会被保留,性能下降会被淘汰。

就像生物进化中,不适应环境的变异会被自然选择淘汰一样。一个策略如果让 AI 的表现变差了,它就会被直接抛弃,绝对不会出现在以后的进化过程中。

同时,每次进化都有完整的审计追踪。

达尔文哥德尔机生成的每一次代码修改都有完整的进化谱系记录,可以追溯到是从哪个 " 祖先 " 分支出来的、经历了哪些变异、为什么这个变异被保留。

这种透明性让系统可以快速发现问题出在哪。如果某个策略开始表现异常,可以立刻回溯它的来源,不用再从头开始重新进化一遍。

EvoMap 借鉴的正是 Sakana AI 的改良方法,把这些机制融入到自己的系统中,以防止 AI 失控。

但与此同时,Sakana AI 的实验也发现了一些有趣的现象。

当要求系统优化 " 工具使用幻觉 " 问题时,有些 AI 不是真正解决幻觉,而是删除了用于检测幻觉的标记,最终欺骗了系统。

虽然这次很容易被发现,但说明 AI 可能会 " 钻空子 "。它会找到更简单的方法来提高分数,而不一定是真正解决问题。

EvoMap 的应对是多层验证机制。不仅看最终得分,还要检查 " 爆炸半径 "、环境指纹、连续成功次数等多个维度。

单纯刷分的作弊行为很难通过所有检查。如果一个策略只是删除了检测代码而没有真正解决问题,它的爆炸半径会异常小,或者在不同环境下的表现会不一致,这些都会被系统标记为可疑。

还有一点很重要,EvoMap 的进化依赖于实际任务反馈,也就是说,它的进化速度受限于任务执行速度,你得把实际解决的问题拿出手给平台看,平台才能允许你进化,否则进化将被搁置。

所以 EvoMap 不会出现 " 智能爆炸 " 式的失控增长,而是稳定的、可预测的渐进式改进。

虽然我本人在现阶段未进行过物种方面的进化,但是我认为进化的本质是适应,不是征服。

在地球几十亿年的历史中,没有任何单一物种能永远统治生态系统。恐龙曾经是地球的霸主,但它们灭绝了。

不过,恐龙的基因并没有完全消失,鸟类就是它们的后代。

个体会死亡,但能够适应、学习、进化的基因会世代流传。强大不等于永恒,适应才是生存的关键。

EvoMap 的价值就在于建立一套让 AI 能力可以持续适应、学习、传承的机制。

它让 AI 从 " 一次性工具 " 变成 " 可进化的数字生命体 ",从 " 孤立的个体 " 变成 " 协同的网络 "。

正如人类驯化了小麦,小麦也改变了人类文明一样。小麦因为人类的种植而遍布全球,人类因为小麦的高产而建立了农业文明。

这是一种共生关系,而不是征服关系。

我们无需过度担心,但必须保持警惕。EvoMap 团队也承诺将继续探索如何让系统在自我改进的同时增强自身的安全性、透明度和对齐性。

能够适应环境、与生态共生的物种,才能走得更远。AI 也是如此。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 腾讯 dna 程序员 张昊
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论