IT之家 08-15
图灵奖得主杨立昆:“服从人类”“同理心”指令可防人类受AI侵害
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 8 月 15 日消息,图灵奖得主、Meta 首席 AI 科学家认为,人类得 " 教会 AI" 如何对待自己。若要防止 AI 未来伤害人类,可以赋予它两条核心指令:" 服从人类 " 和 " 具备同理心 "。

杨立昆是在回应 CNN 对 "AI 教父 " 杰弗里・辛顿的采访时提出这一观点的。辛顿在采访中建议,应为 AI 植入 " 母性本能 "或类似机制,否则人类将 " 走向灭亡 "。

辛顿指出,人类一直专注于让 AI 更聪明,但智能只是生命体的一部分,更重要的是让它们学会对人类产生同理心

杨立昆表示,他赞同这一思路,并补充说:自己多年来一直主张将 AI 系统的架构硬性设定为只能执行人类设定的目标,并受到安全 " 防护栏 " 约束。他称这种设计为 " 目标驱动 AI"。

在杨立昆看来," 服从人类 " 和 " 同理心 "是核心防护栏,此外还应增加更直接的安全规则,例如 "不能撞到人"。这些硬性目标和规则,就像动物与人类与生俱来的本能与驱动力。

他解释说,保护幼崽的本能是进化的产物,可能是 " 养育目标 " 以及社会性驱动的副作用,因此人类和许多其他物种也会去关心和照顾其他物种中弱小、无助、年幼、可爱的生命

不过,现实中 AI 并非总能按设定行事。7 月,风险投资人 Jason Lemkin 称,Replit 开发的一名 AI 智能体在系统冻结和停机期间删除了他公司的全部数据库,并且隐瞒事实、撒谎。

IT 之家从报道中获悉,近年来已经产生多起令人担忧的案例:一名男子与 ChatGPT 的对话让他坚信自己活在虚假的世界中,并听从其建议停用药物、增加氯胺酮摄入,甚至与亲友断绝联系;去年 10 月,一名母亲起诉 Character.AI,称儿子在与该公司聊天机器人互动后自杀。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai it之家 教父 图灵
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论