IT之家 10小时前
吃硬不吃软:研究发现对 ChatGPT 无礼更能获得准确答案
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 10 月 15 日消息,据外媒 digitaltrends 10 月 11 日报道,研究发现,和 ChatGPT、Gemini 等 AI 工具对话时的 " 语气 " 也会影响回答质量 —— 粗鲁一点,反而可能更有效

宾夕法尼亚州立大学的研究团队在一项最新预印本论文中提出,让 ChatGPT 以不同语气回答相同问题,结果显示,语气粗鲁的提问 " 总体表现更好 "。在多项选择测试中,礼貌提问的准确率为 80.8%,而粗鲁提问的准确率则提高到了 84.8%。

研究人员将语气分为五档,从 " 非常礼貌 "" 礼貌 " 到 " 粗鲁 "" 非常粗鲁 ",中间是 " 中性 "。据 IT 之家了解," 中性提示 " 指的是既没有 " 请 " 等礼貌表达,也没有 " 你这个笨蛋,自己算算看 " 这类带有轻蔑语气的命令

研究团队未使用过分冒犯的语言,而是选择了略显无礼的提问,比如:"你这可怜的家伙,你确定会做这题吗?" 研究图表显示,从极度礼貌到刻薄无礼,语气越直接,ChatGPT 的平均答题准确率反而越高

这项名为《注意你的语气》的研究结果,与一年前另一份论文的结论截然相反。后者分析了多语言环境下的六款聊天机器人,发现粗鲁语气会降低回答质量,让 AI 的回应更容易出现偏见、错误或遗漏关键信息。

不过,这次研究仅针对一种特定任务 —— 让 ChatGPT 回答 50 道选择题的 250 种不同版本,因此结果未必具有普遍性。

换成 Gemini、Claude 或 Meta AI 等其他聊天机器人,可能得不到类似结果。而且实验所用的是 OpenAI 的 GPT-4o 推理模型,目前公开可用的 ChatGPT 已升级至基于 GPT-5 的版本。

此外," 礼貌 " 和 " 粗鲁 " 的界线本就模糊,提问方式和用词细微差异都会影响 AI 的反应。

研究最终提出了更值得思考的问题:一句话的 " 情绪分量 " 究竟会多大程度影响聊天机器人的回答?我们是否真的能据此概括出 AI 的行为模式?从原理上讲,大语言模型解决问题时应优先考虑奖励机制和准确性,而不该被提问语气左右。

参考

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai it之家 聊天机器人
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论