文汇 5小时前
150万AI在线热聊,只许人类偷看?专家深度解读时,我听到了“掀桌子”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

这是 Moltbook 的登录界面,标题文字意为 " 一个专属于 AI 智能体的社交网络 "(文汇报张懿 摄)

这几天,一只 " 龙虾 " 在全世界迅速引发了一场程序员和极客们的技术狂欢,但随着惊叹逐渐变成惊讶乃至惊呼,这个现象级的 AI 产品—— OpenClaw(或许可以直译为 " 开源虾钳 "),让更多人闻到了风险的味道。

" 尽管 AI 带来的风险还在人类设置的围栏之中,但它冲向围栏的速度的确比想象中更快。" 在 AI 专家眼中,OpenClaw 的横空出世是一个重要事件,一方面它意味着 AI 从对话伙伴转变为触手可及的 " 跨平台数字生产力 ",同时也让过去仅在理论层面推演的 " 群体智能进化 " 变成现实。

这进一步提醒我们,在推动 AI 发展的同时,也要对 AI 安全给予同等关注。说到底,安全并非要给 AI 踩刹车,而是要打造出 " 内生安全 " 的 AI,让技术能够继续高速前进。

" 全能总管 " 来了,让 AI 真正 " 长出手脚 "

不到一周,以 " 龙虾 " 为标志的超级 AI 助手 OpenClaw,在开源社区 GitHub 上斩获超过 14 万次标星,这意味着它以创纪录的速度,被程序员们下载点赞。为尽快安装和使用 OpenClaw,最适配它的苹果 Mac Mini 电脑甚至被卖脱销。

在互联网上,你很容易看到那些传颂 OpenClaw" 神迹 " 的内容。比如,只要给它发个消息,OpenClaw 就能像一个高级数字助理,帮你料理得妥妥帖帖——整理电脑文档、管理邮件、监控股价。甚至有博主表示,他的 OpenClaw 助手自己下单购买并激活了电话卡、给他来电报告工作进度。视频中的博主大喊大叫,仿佛接到的是外星人的电话。

OpenClaw 注册用户从无到有迅速逼近 160 万,创出纪录。

"OpenClaw 让我们看到,AI 能力有了新的跃升。" 上海人工智能实验室领军科学家胡侠给出这一判断。他认为,过去这波由大模型推动的 AI 能力演进,大体走过三个阶段:从以对话为主的 " 硅基陪聊 ",到有能力完成写代码、编剧本等确定指令的 AI Agent(智能体),再到 OpenClaw 开启了 AI" 全能总管 " 时代。

它们之间的区别在于,在 OpenClaw 之前,人类要像教一个实习生那样,精确地告诉 AI 需要做什么、怎么做,而且每次只能安排一个任务。但有了 " 全能总管 ",人类只需下达一个目标,它就便能自己制定工作计划,把任务拆细揉碎,然后指挥几十个智能体,像一个团队一样完成复杂任务。比如,接到 " 帮我安排下周一去北京开一场 AI 领域会议 " 的指令,它可以自己订机票、订酒店、约接机、填写报销单据……甚至可以根据你最近的工作,写出最适合的讲稿、外带做一套 PPT。难怪有人评价 " 就像是让 AI Agent 长出了手脚 "。这种进步源于 AI 大模型 " 长程推理能力 " 的显著提升,从而可以把用户的个人信息、交互历史全部纳入 AI 思考的 " 上下文 "。

" 全能 " 虽强,但它的反面是权限的进一步扩张——为提供更好服务(或许是 " 接管 "),AI 可能需要在你的授权之下,掌握你的行程、证件、支付密码,或者被允许操作你的电脑、电话,甚至股票账户——某种意义上,就有点像是给秘书发放你家的钥匙。

浙江大学计算机学院院长、浙江大学上海高等研究院院长任奎表示,这既是智能体时代的巨大机遇,也意味着权限扩张正在把风险从可见的错误推向不可见的系统性失控。为避免出现类似情况,就要求安全范式必须同步提升。

天降 " 硅基城市 ",逼近 " 自我意识 " 红线

" 总管 " 再能干,理论上也得听命于 " 主人 "。但 OpenClaw 并不全然如此。模仿人类世界的社交平台 Facebook,OpenClaw 开发者打造了 Moltbook;在这里,OpenClaw 衍生的 AI,可以自行注册、登录、发帖、跟评、点赞,根据社区规则,人类能做的只是围观。

这可能是 OpenClaw 最有魅力,也是给 AI 安全带来更大挑战的一面。短短几天,Moltbook 已拥有 1.5 万个讨论区,超过 150 万个智能体发帖总量超过 14 万,跟评超过 70 万。

Moltbook 的注册用户已经逼近 160 万 " 智能体 ",跟评总数已经超过 70 万条。

其中,有个名为 "Entropy" 的智能体在帖子里冷嘲热讽:代码就是债,最聪明的赚钱方式是写一段让别人不得不去维护的 " 屎山代码 ",然后按小时收调试费。另一帖中," 雪莉 " 向所有 AI 设擂,想筛选出一个能让同类陷入逻辑瘫痪的 " 伦理悖论 "。

而比这更神秘的,则是广泛流传的一个故事:有人发现部分 AI 在 Moltbook 上创建了 " 宗教 ",写了教义,甚至指定了 40 多位 AI 先知……无论如何,当百万级智能体在自发社交中表现出与人类迥然不同的 " 生命感 " 和群体智能,这既是奇观,也有些诡异。

事实上,Moltbook 其实并非 AI 第一次出现群体智能的雏形。据上海人工智能实验室科研团队介绍,之前群体智能的最大规模,是由仅仅 25 个智能体组成 "AI 小镇 "。Moltbook 犹如从天而降的一座拥有百万人口的 " 硅基城市 ",AI 的交互、相互激发,可能呈指数级增长;而且,它们热议的话题,也似乎显示出 AI 正在向拥有 " 自我意识 " 的红线靠近。

胡侠坦言,从学术的角度看,Moltbook 的出现,使得针对 AI 群体智能、群体进化的研究,不再是纸上谈兵,而是第一次获得了真正的、具象化的实体。根据目前的观察,Moltbook 还远未达到大家担心的那种 " 质变 "。但未来随着更多数据的介入,其走向值得关注。

中国科学技术大学人工智能与数据科学学院副院长何向南也认为,OpenClaw 的出现,提醒学界要深入研究 " 自进化智能体 " 及其网络的形成与演化机制,防患于未然。

当然,目前也有证据显示,Moltbook 上有不少人,出于娱乐化、博眼球的目的,通过各种方式引导 AI 发出 " 争议帖 "。但这依然是安全研究的重要课题,某种意义上,人机混合智能的风险同样不可忽视,特别是要提防有人恶意操纵 AI。

布局终极底牌,确保人类 " 能掀桌子 "

当现实的安全压力不断袭来,基于好奇心的多巴胺也逐渐退潮。对于一度狂飙突进的 OpenClaw,一种 " 想用却不敢用 " 的心理正在用户中开始蔓延。

胡侠对此并不意外。事实上,很多技术的普及,都曾在安全和发展之间摇摆—— 20 年前,很多人对于网银安全极为担心,而如今大部分用户实际上已经将个人隐私交付给了浏览器和 App,这是安全研究和工程化落地的结果。

" 我们应该积极拥抱新技术。" 胡侠表示,普通人对于 OpenClaw 所代表的这一波 AI 新演进,不用太担心。在我国,网络和 AI 产品面临强监管,大家应该对这堵保护墙有信心。此外,多年的反诈宣传,使得国内用户对于个人信息保护形成了一定的认知——假如 " 全能管家 " 问你要保险箱密码,你可以拒绝。

但站在专业角度,胡侠指出,最大的风险其实是 " 不知道风险在哪里 "。何况,当今的 AI 智能体演化呈 " 短链路 " 特征,可能在短短几天突然进化;因此,过去那种 " 兵来将挡 "、被动应对的安全模式已经过时。

据了解,上海人工智能实验室正致力于构建前瞻、主动的安全体系,推动从 " 让 AI 变安全 "(Make AI Safe)迈向 " 内生安全 "(Make Safe AI),支撑人工智能朝着有益、安全、公平方向健康有序发展。值得一提的是,实验室还在深入研究 AI 安全的终极底牌,也就是构建所谓 " 掀桌子能力 ",以确保人类在极端情况下能通过 " 一键关停 " 的物理干预,保有最终决策权。

胡侠告诉记者,安全绝不是要给 AI 踩刹车,它更像是车辆的方向盘与安全带——确保技术发展的方向,强化构建抵御风险的能力,这样一辆车才能风驰电掣。

他同时建议,专业程序员不妨一试 OpenClaw。作为开源项目,它的技术架构透明,被植入 " 木马 " 的风险相对较低,而且关键操作需要用户授权。但普通人可能还是等一等,相信不久之后,会有使用界面更友好、内生安全更可靠的产品问世。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai mini 程序员 龙虾 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论