驱动之家 03-03
一个土办法能让AI智商翻4倍!网友:简单粗暴 居然这么好用
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 3 月 3 日消息," 重要的事情说两遍。" 这听起来像是玄学,但确实是真的。

2026 年,当很多的人还在费尽心机设计复杂提示词,想让 AI 更好地听懂人类需求时,谷歌研究院悄悄发布了一篇论文,提出了一个简单到让人意外的方法——重复提示词,就能大幅改善大语言模型在非推理任务上的表现。

方法简单到离谱:

先写好你的需求提示词,再把它复制一遍、粘贴在后面,直接发给 AI 就可以。

比如:

之前你的提示词是:" 这是我的问题 "。

现在把它换成:" 这是我的问题 "" 这是我的问题 ",然后喂给 AI。

这篇论文名为《提示重复可增强大语言模型非推理性能(Prompt Repetition Improves Non-Reasoning LLMs)》,它的核心结论,彻底颠覆了人们对 AI 提示词设计的固有认知。

整个论文比较长,我用 AI 总结了一下核心意思:

" 谷歌研究团队发现了一个优化大语言模型的简单实用方法:在不需要模型做逻辑推理的场景下,把输入的提示词完整重复一遍,能明显提升模型的回答准确率,还几乎不会增加生成内容的长度和响应耗时。

大模型本身无法让提示词里的信息相互关联,提示词的顺序还会影响回答效果,而重复提示词能让这些信息彼此呼应,且这个重复操作只在模型的并行预处理阶段完成,不会影响后续的内容生成。

团队测试了 Gemini、GPT、Claude 等 7 个主流模型,在多项标准任务和 2 个自定义任务中,无推理场景下该方法 47 次提升模型性能且 0 次失效,自定义任务里模型准确率甚至从 21.33% 飙升至 97.33%。

但让模型逐步推理时,这个方法效果一般,因为推理型模型本就会自主重复部分提示词。

实验还证实,性能提升是因为重复提示词本身,而非单纯增加输入长度,重复三次在部分任务中效果更好。该方法基本不改变输出格式,能直接适配现有系统,仅 Claude 处理超长内容时延迟会稍增,是个易落地的轻量优化方案。"

说白了,这就是我们从小听到大的 " 重要的事情说两遍 ",没想到这个朴素的道理,在 AI 身上同样管用。

为了验证这个方法是否可行,谷歌研究团队做了严谨测试,选取了 Gemini、GPT-4、Claude、DeepSeek 等 7 个主流大模型,在 70 种不同场景下展开验证。

结果出人意料:47 个场景中,AI 的表现有明显提升;23 个场景中表现持平;全程没有出现因为重复提示词,导致 AI 表现变差的情况。

论文中设计了一项名为 NameIndex 的测试,具体来说,就是给 AI 一份包含 50 个名字的长名单,然后问它 " 第 25 个人叫什么名字 "。

这项任务对人类来说,只要逐个数一遍就能完成,但对 AI 而言,要在长长的序列中精准定位,难度不小。常规操作下,Gemini 2.0 Flash-Lite 模型的准确率只有 21.3%,几乎和瞎蒙没区别;而使用重复提示词的方法后,准确率直接飙升到 97.3%,提升幅度超过 4 倍,从几乎无法使用的状态,变得近乎完美。

而且这种提升不是个例,像数学题、代码理解这类不需要极强推理能力的任务,重复提示词都能带来稳定的效果提升。

这个看似很笨的土办法,背后其实有明确的科学逻辑,并非什么玄学。

当前主流的大语言模型,都采用 Transformer 架构,它有一个明显的短板,只能单向阅读。AI 读取提示词时,就像我们看直播弹幕一样,只能逐词往后看,读到前面的内容时,根本不知道后面会讲什么,很容易遗漏关键信息。

而重复提示词,相当于让 AI 做了一次 " 虚拟重读 "(Virtual Re-reading),当它读第二遍内容时,已经对整体情况有了了解,就能借着第一遍的记忆,精准抓住那些真正重要的信息,从而提高响应的准确性。

不过,这个技巧也不是万能的,存在明显的局限性。谷歌论文中也明确提到,它对 OpenAI 的 o1、国产 DeepSeek-R1 这类主打深度推理(Reasoning)的模型,效果并不明显。

原因很简单,这类模型在给出答案之前,内部已经完成了类似反复琢磨的过程,这时再在外部重复提示词,就显得多此一举了。

另外,如果提示词本身已经很长,快达到模型的上下文上限,再复制一遍,可能会导致 AI 处理速度变慢,甚至出现内存溢出的情况。

除此之外,这个技巧更适合信息提取、阅读理解这类任务,要是让 AI 写小说、写诗,重复提示词不仅不会让文采变好,反而可能让 AI 感到困惑。

业内人士认为,这一研究也给大家提了个醒,优化 AI 性能,未必非要依赖复杂技术,有时候最朴素的方法,反而能带来意外惊喜。

对普通用户来说,以后遇到 AI 答非所问,或者处理长文档时丢三落四的情况,不用急着花心思改写复杂提示词,不妨试着把自己的需求复制粘贴一遍再发送。

毕竟 " 重要的事情说两遍 ",这份人类几千年来总结的智慧,在 AI 身上同样适用,也能让我们以极低的成本提升使用体验。

网友评论:

" 真是不可思议,如此简单粗暴的方法居然效果这么好。这让我不禁思考,还有多少显而易见的技巧我们因为没人系统地测试而错过了。

对于这个领域来说,有点尴尬的是," 重复两遍哈哈 " 竟然也算是一种合法的优化策略。

这是一篇极具洞察力的论文。令人印象深刻的是,如此简单的技巧竟能显著提升非推理模型的性能。Gemini 2.0 Flash-Lite 仅通过重复提示,就能在特定任务中将准确率从 21.33% 提升至 97.33%,这着实令人惊叹。

我还发现,由于重复操作是在可并行化的预填充阶段处理的,因此延迟不受影响,这一点尤其令人感兴趣。感谢分享,我一定会付诸实践。"

大家不妨都试试。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 谷歌 效果
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论