在真实应用中,LLM 幻觉远比你想象得复杂。
来自弗吉尼亚理工等机构的重磅研究,第一次用统一理论解释:为什么 LLM 会产生幻觉?又为什么越推理越离谱?
在医疗、法律、科研等高风险场景," 幻觉 " 正在成为大模型落地的最后一道坎。

你可能已经见过这些情况:
回答看起来很自信,但事实是错的
单步回答没问题,一到多步推理就开始崩
前半段正确,后半段却被自己 " 带跑偏 "
问题是:这些幻觉,真的是同一种问题吗?
幻觉不是一种,而是两种,而且会 " 演化 "
来自弗吉尼亚理工大学、MIT、达特茅斯学院等机构的研究团队,在ICLR 2026发表论文HALLUGUARD,首次从理论上给出明确答案:
LLM 幻觉并非单一来源,而是由两类机制共同作用、逐步演化而成。

两大根源,第一次被严格区分:
1. 数据驱动型幻觉(Data-driven)
来源:预训练 / 微调阶段的知识缺失、偏差、分布错配
表现:模型 " 本来就不知道,却说得很像真的 "
2. 推理驱动型幻觉(Reasoning-driven)
来源:推理时的不稳定解码、多步逻辑放大
表现:模型 " 一开始对,但越推越歪 "
更关键的是:真实幻觉往往不是 " 二选一 ",而是先错在数据,再被推理放大。
理论突破:首个 " 幻觉风险界 ",解释幻觉如何产生和放大
论文提出一个全新的理论框架——Hallucination Risk Bound(幻觉风险界)

它首次在数学上证明:整体幻觉风险 = 数据误差 + 推理不稳定误差
并进一步揭示了两个关键机制:
数据驱动项:与模型表征能力、预训练–任务分布错配密切相关
推理驱动项:在多步生成中会随推理长度指数级放大
一句话总结就是:
幻觉不是 " 突然出现 ",而是 " 被一步步推出来的 "。
这也是为什么很多模型:短回答还行,一到长链条推理就全面失控。
HALLUGUARD:一个真正 " 统一 " 的幻觉检测器
有了理论,下一步是:幻觉能不能测出来?
研究团队提出了HALLUGUARD——一个基于神经切线核(NTK)几何结构的幻觉评分函数,核心特点是:
同时覆盖两类幻觉(数据 + 推理)
无需外部知识或检索
无需人工标注,零监督
推理阶段零额外开销,可直接部署
直观理解它在做什么:
用NTK 的谱结构判断模型 " 是不是学对了 "
用解码 Jacobian 的放大效应衡量 " 推理会不会失控 "
把 " 知识偏差 + 推理漂移 " 统一压缩成一个稳定分数
不是靠经验规则,而是从模型内部结构出发。
实验实锤:10 个基准 × 9 大模型,全面 SOTA
HALLUGUARD 在10 个幻觉基准、11 种主流方法、9 个 LLM backbone上全面测试,涵盖:
事实型 QA(SQuAD、RAGTruth)
多步推理(GSM8K、MATH-500、BBH)
指令跟随 & 开放生成(TruthfulQA、HaluEval)
结果非常一致:
在推理型任务上优势最明显
在小模型(7B 级)上提升最大,最高超过10%
显著超越 SelfCheckGPT、Inside、RACE 等主流方法


更重要的是消融实验表明:
数据型任务由 " 数据项 " 主导,推理型任务由 " 推理项 " 主导,由此理论与实验,完全对齐。

不止检测,还能直接 " 救推理 "
HALLUGUARD 不只是事后 " 报警器 "。
研究发现:把 HALLUGUARD 作为推理时的评分信号,直接嵌入 Beam Search:
MATH-500 准确率:72.7% → 81.0%
指令任务提升近 16%
这意味着:幻觉检测可以反过来指导模型走 " 更稳 " 的推理路径。

HALLUGUARD 的意义,不只是多了一个检测指标,而是:
第一次统一解释幻觉的 " 来源 + 演化 "
第一次把理论分解落到可计算指标
第一次证明幻觉检测能反哺推理本身
这为高风险场景下的 LLM 部署,提供了一条从 " 经验补丁 " 走向 " 理论可控 " 的路径。

论文名称:
HALLUGUARD: Demystifying Data-Driven and Reasoning-Driven Hallucinations in LLMs
会议:
ICLR 2026
作者:
Xinyue Zeng, Junhong Lin, Yujun Yan, Feng Guo, Liang Shi, Jun Wu, Dawei Zhou
机构:
Virginia Tech, MIT, Dartmouth College 等
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
我们正在招聘一名眼疾手快、关注 AI 的学术编辑实习生
感兴趣的小伙伴欢迎关注 了解详情

点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦