IT之家 21小时前
谷歌DeepMind CEO:扩大AI规模是实现通用人工智能关键
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 12 月 8 日消息,据《商业内幕》昨天报道,谷歌 DeepMind CEO 德米斯・哈萨比斯(Demis Hassabis)最近表示,扩大 AI 模型规模是实现通用人工智能(AGI)的关键。

据报道,硅谷各界人士一直在进行一场持续的争论:规模定律(scaling laws)究竟能让 AI 走向何方?

刚刚凭借 Gemini 3 获得广泛赞誉的谷歌 DeepMind CEO 德米斯・哈萨比斯在上周表示:" 我们必须把当前 AI 的规模化推向极致,它最终会成为通用人工智能的关键组成部分,甚至有可能构成整个通用人工智能系统"。

IT 之家注:通用人工智能(AGI)指的是具备与人类同等智能或超越普通人类的人工智能,能表现正常人类所具有的所有智能行为,目前仍处于理论状态,全球领先的 AI 公司都在为此投入,争夺头牌。

而规模定律(scaling laws)指的是机器学习领域描述性能与模型规模、训练数据集大小及计算资源之间可预测关系的经验性规律,被 AI 业界视为大模型预训练的核心原则,可以用 " 模型越大 + 数据越多训练越久=越聪明 " 来理解。

回到正文,哈萨比斯还认为,只靠规模定律或许能让 AI 走向 AGI,但他也怀疑最终可能需要一到两个额外的突破才能达成 AGI

但规模定律并非完美无缺,毕竟公开的数据总量是有限的,而且增加算力意味着要建设更多数据中心,会导致训练成本越来越高昂,且对自然环境造成压力。一些关注 AI 的专家也担心,大语言模型公司持续投入规模定律会出现投入产出递减现象。

与此同时,硅谷也出现了另一派声音,其中前 Meta 首席 AI 科学家、近期宣布离职创业的 Yann LeCun(杨立昆)就认为,AI 行业不能只靠规模定律。

他今年 4 月在新加坡国立大学(NUS)表示:" 大多数真正有趣的问题在规模定律下表现得极其糟糕,你不能简单地认为堆数据和堆算力就能产出更聪明的 AI"。

据悉,他离开 Meta 是为了构建一款不依赖语言数据,而是依靠空间数据的 " 世界模型 "AI 体系,可以被视为大语言模型的替代方案。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 人工智能 谷歌 ceo deepmind
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论