内容来源 | 本文摘编自中信出版集团书籍
《AI 万金油:商业幻想与科技狂潮》
[ 美 ] 阿尔文德 · 纳拉亚南(Arvind Narayanan)
[ 美 ] 萨亚什 · 卡普尔(Sayash Kapoor)著
责编 | 柒 排版 | 拾零
第 9248 篇深度好文:4058 字 | 11 分钟阅读
几乎每个行业都在谈 AI ——它能预测、能写作、能设计、能决策。AI 似乎无所不能,成为新时代的 " 万金油 "。
无论是教育、医疗、金融还是法律领域,都有人坚信:AI 能让系统更高效、更公平、更聪明。
但正如普林斯顿大学的信息技术政策中心主任阿尔文德 · 纳拉亚南(Arvind Narayanan)与他的博士生萨亚什 · 卡普尔(Sayash Kapoor)在《AI 万金油:商业幻想与科技狂潮》中指出的那样,每一次技术狂热,都会伴随新的幻觉。
AI 的真正问题,往往不在算法本身,而在于围绕它的故事——那些由公司、研究者、媒体与公众人物共同编织的 " 智能神话 "。
这本书提醒我们:AI 炒作并非单一事件,而是一种机制。它由商业利益驱动、由技术乐观主义润色、由新闻媒体放大,再由我们每个人的认知偏见推动。

于是,AI 成了一个万能叙事——既是生产力革命的象征,又是人类终将被取代的预兆。
当一个模型被形容为 " 像人一样理解语言 "、当一项技术被称作 " 正在重塑文明 ",我们更容易被宏大的故事打动,而非去追问数据、验证方法与实际效果。
纳拉亚南和卡普尔在书中提出,AI 炒作的危害不只是夸大预期,更在于它扭曲了整个技术生态的重心——资金、人才、政策与舆论都被吸引到 " 更大的模型 " 和 " 更强的智能 " 上,而非那些真正能解决问题的应用场景。
追逐新模型固然重要,但更关键的是识别 AI 炒作的机制。只有在理解幻觉如何形成的前提下,我们才能避免被幻觉所左右。
本文整理自《AI 万金油》第七章为何关于 AI 的迷思经久不衰,带您识别 AI 狂热的五大成因。
一、资本驱动:AI 研究依附商业逻辑
AI 的发展历程始终伴随着对其能力的过度乐观。短期内的炒作能吸引资本和关注,带来快速增长;但这种高预期也为现实表现设下了过高门槛,一旦承诺无法兑现,"AI 寒冬 " 便会降临。
现代 AI 研发高度依赖企业资助。无论是算力、硬件还是人力成本,现代大模型的开发都超出大多数学术机构的能力范围。
因此,近年来最强大的 AI 系统几乎都出自 OpenAI、谷歌和 Meta 等公司。越来越多研发人员也随资金流向企业,成为商业研发的一部分。

考虑到行业资金和影响的作用,企业更看重能够整合到盈利产品中的工程突破,而非科学理解。
许多公司甚至在完全理解产品工作原理之前就推出新技术,使得这些技术看起来像 " 魔法 "。因此,研究人员往往知道哪些 AI 技术有效,但由于缺乏时间和资源,尚不清楚其背后的运行机制。
同时,研发人员出于声望或竞争压力,常发表未经实证验证的推测性声明。这些言论因作者的权威而被误认为事实。
更有甚者,语言上的夸张进一步助长炒作——诸如 " 人类级阅读理解 " 这样的说法,往往仅基于基准数据集的结果,而非现实应用。
二、科学失真:
AI 学术研究的可复制性危机
推动 AI 炒作的并不仅仅是企业。许多被媒体广泛传播的 "AI 突破 ",其实源自学术研究;但这些成果往往并不牢靠,因为 AI 领域正遭遇一场可复制性危机。
可复制性是科学研究的基石——只有当独立团队在相同条件下能够重复实验并获得一致结果时,结论才具有可信度。
然而,在 AI 研究中,这一原则正被系统性忽视。挪威科技大学对顶级会议论文的审查发现,没有一篇研究完全满足可复制标准:实验代码未公开,数据集受限,参数缺失,结果难以验证。

例如,OpenAI 的 Codex 模型被广泛用于学术研究,已经在上百篇论文中被引用。Codex 对编程任务非常有用,但与大多数其他 OpenAI 模型一样,它并非开源,因此用户需要依赖 OpenAI 的服务来使用模型。
2023 年 3 月,OpenAI 宣布将停止支持 Codex,并且仅提前三天通知用户。
这一决定导致数百篇学术论文失去可复制性,独立研究人员无法验证这些研究的有效性,也无法在其基础上进一步探索。
除了研究人员对商业 AI 模型的依赖,AI 模型的评估方式也存在严重问题。常见的 " 数据泄露 " 错误使得结果被人为夸大:模型在训练中接触过的样本在测试阶段再次出现,相当于在考试前提前看到题目。
三、媒体放大:新闻制造 " 智能幻觉 "
每天都有关于 AI 新成就的报道充斥媒体。这些新闻通常缺乏深入分析,而是专注于 AI 实现的惊人进步,却很少提及其局限性。
为了更好地理解新闻中的 AI 炒作,2024 年分析的 50 篇新闻文章研究媒体如何助推炒作中显示,新闻报道往往未经批判地重复研究机构的宣传,频繁使用机器人的图片,对 AI 进行拟人化描述,并淡化其局限性。
即使是新闻报道中使用的 AI 图片,也可能误导公众对 AI 工作原理的理解。
许多关于 AI 的文章配有机器人的图片,即使讨论的应用与机器人毫无关系。这种视觉呈现误导人们将 AI 等同于机器人。
AI 新闻报道中夸大其词的原因有很多,最主要的原因之一是媒体面临的经济压力。社交媒体的兴起和点击量驱动的新闻模式使得营利性深度报道的能力大幅下降。

同时,作为一个相对新兴的领域,AI 的技术复杂性也使记者难以具备足够的专业知识来揭穿公司可能的万金油式宣传。
另一方面,销售 AI 产品的公司通常拥有充足的资金用于公关宣传。如果记者的报道过度批评,公司可能会限制其对新产品的访问权限,或禁止其接触内部消息来源。
对工作负担沉重、缺乏时间进行深入调查的记者而言,与公司保持良好关系往往显得更为重要。在这种情况下轻微修改公司提供的新闻稿后直接发布,成为一种既省时又能满足双方需求的选择。
四、权威加持:精英话语延续神话
在 OpenAI 发布 GPT-4 不到一个月后,生命未来研究所发表了一封公开信,呼吁暂停训练 " 比 GPT-4 更强大 " 的语言模型,为期 6 个月。
这封信得到了包括埃里克 · 施密特和埃隆 · 马斯克在内的众多知名研究人员和技术专家的签名支持。
信中提出 :" 我们是否应该让所有工作都自动化,包括那些能带来满足感的工作 ?"(原文强调)。
GPT-4 发布时,围绕其在人类考试(如律师执业资格考试和美国医学执照考试)中的表现产生了大量炒作。信中直接采纳了 OpenAI 的说法,声称 " 当代 AI 系统目前在一般任务上已具备与人类竞争的能力 "。
然而,聊天机器人在基准测试上的表现,并不能有效说明它们在现实世界中是否能够自动化工作。

尽管信中表面上批评了聊天机器人的草率部署,同时却夸大了它们的能力,将其描绘得远比实际强大。这种措辞实际上帮助了相关公司,塑造出它们正在创造超越现实的新技术系统的形象。
信中还陈述道 :" 我们是否应该开发可能最终数量超越人类,智力超越人类,使我们过时并取代我们的非人类思维 ? 我们是否应冒着失去对文明的控制的风险 ?"
AI 社区内部关于失控 AI 可能带来生存风险的担忧正在升温,而信中关于 " 失去对文明的控制 " 的表述正是这一担忧的体现。
我们承认思考 AI 长期影响的重要性,但这些对未来的担忧已经分散了应对 AI 当前真正紧迫风险的资源和注意力。
五、认知偏见:
人类为何甘愿相信 AI 奇迹
到此为止,已经看到公司、研究人员、记者与公众人物如何共同推动 AI 神话。
但若公众能保持批判性思考,这些叙事未必能成立。问题在于,我们每个人都受到认知偏见的影响。
解释深度错觉让人误以为自己理解复杂系统。这种错觉可能导致过度自信,使人们不去提出批判性问题或探索其他可能性。
例如,AI 是一个宽泛的术语,但很少有人有时间深入了解其不同类型,因而无法形成对不同 AI 应用的具体看法。
启动效应让科幻意象主导我们对 AI 的想象;例如,科幻小说和大众媒体长期以来将 AI 与机器人联系在一起。然而,AI 的应用远超机器人领域。

虚假真理效应使重复的信息更容易被相信;正如我们所见,关于 AI 的不准确主张常被不同利益相关者(包括记者)一再重复,因此公众相信这些说法并不令人意外。
锚定偏见让我们固守最初印象,即使证据改变;在 AI 的讨论中,人们往往会牢牢抓住公司对 AI 能力的夸大主张,当这些主张的缺陷被揭露时,他们可能不会及时修正自己的看法。
确认偏见让人只接收符合自身信念的讯息。一旦我们开始接受那些逐利公司发布的营销主张,就容易陷入一种接受 AI 宏大主张的反馈循环,而忽视其潜在缺陷。
列举这些例子的目的不是责怪人们。认知偏见并非有意为之,实际上公司、研究人员和记者是在利用这些偏见来牟取利益。
然而,理解这些偏见可以帮助你提前识别并防范 AI 炒作,能够在遇到炒作时做出反击,并辨别伪技术的 AI 产品。
虽然尚未得出最终结论,但最新研究表明,通过训练可以减少人们对偏见的敏感性。
六、识别 AI 炒作:
建立你的 " 技术免疫系统 "
理解 AI 狂热的成因,是建立理性判断的前提。但更重要的是,我们如何在铺天盖地的 AI 叙事中保持清醒。
面对下一次 " 颠覆性突破 " 或 " 智能革命 ",可以从以下三个维度练习一种 " 技术免疫力 ":
1. 追问数据,而非故事。
当听到某项 AI 技术 " 超过人类 "" 实现突破 " 时,先问三个问题:
它的测试数据是否公开?是否经过独立验证?结果是否能在现实环境中复现?
如果答案模糊或回避,这往往是 " 概念领先于能力 " 的信号。

2. 识别叙事背后的动机。
AI 炒作之所以反复出现,是因为每一方都从中获益:
公司需要融资,学者需要声望,媒体需要流量,公众人物需要立场。
理解这些叙事的经济学,有助于判断信息的可靠度。越是强调 " 革命 "" 奇迹 " 的说法,越需要保持距离。
3. 用现实场景来校验
任何真正的技术突破,最终都要落在" 改变流程、降低成本、提升体验 "上。
如果一个 AI 项目只停留在概念演示、宣传视频或投资说明书中,而没有实质性改变任何人的工作方式,那么它更可能是一种幻觉。
下次当你看到 90% 的准确率,或在关于金融领域的 AI 的文章中看到机器人图片时,就会考虑这些描述是否存在误导。一旦你开始养成这种习惯,识别 " 胡言乱语 " 可能会成为一种自动的条件反射。
* 文章为作者独立观点,不代表笔记侠立场。
好文阅读推荐:
分享、点赞、在看,3 连 3 连!


登录后才可以发布评论哦
打开小程序可以发布评论哦