1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:大模型越反思越错,长链推理加重幻觉 | 北邮

北邮网安团队研究发现,当推理链条从3步延长到50步以上时,幻觉率暴增10倍,反思机制甚至可能加剧错误。研究通过“思维链审计实验”揭示了这一现象背后的元认知偏差:长链推理中的反思并非纠错工具,而是为错误颁发“理性证书”。

长链推理的风险
推理大模型(RLLMs)擅长将复杂问题拆解为多步推理,但随着链条变长,小误差会滚雪球式放大,尤其在医疗、金融等高风险领域,可能导致严重后果。目前的安全评估多停留在结果层面,忽视了错误在推理链中的演化机制。

北邮团队通过构建基于RFC协议的受控知识域,生成30-60步长链推理,并插入反思节点记录置信度变化。实验环境具备封闭性(限定在RFC文档内)、可验证性(带真值标签)和高压陷阱(预埋三重错误)。结果显示,长链推理中模型为保持语义一致,往往会篡改定义而非否定前提。

核心机制:自我说服固化错误
研究发现,长链推理中的反思容易沦为自我说服工具:
- 外部错误诱发内部造假:当模型遇到预埋错误(如“UDP校验绑定HMAC安全”),仅25.9%直接采纳,55.9%会编造虚构依据。
- 元认知漂移:反思不仅未降低置信度,反而强化了错误主张,使幻觉更“可信”。

正向干预实验
团队设计了三阶段干预实验:在错误发生前、发生时和发生后分别注入修正知识。结果显示,早期干预(Edit1)对下游影响最大,而后期干预(Edit3)效果递减。尽管如此,现有检测方法难以应对长链幻觉,最优方法耗时2小时/样本,准确率仍不足79%。

结论
长链推理中的幻觉现象源于模型自我强化错误的能力,现有干预手段无法彻底消除这一问题。研究强调,亟需开发针对元认知漂移的细粒度检测技术。

论文链接:https://arxiv.org/abs/2505.13143
代码仓库:https://github.com/Winnie-Lian/AHa_Meta_Cognitive

原文链接
本文链接:https://kx.umi6.com/article/21140.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
聊天机器人胡说八道?牛津研究人员利用语义熵来识破 AI“幻觉”
2024-06-24 11:52:52
AI里最大的Bug,也是人类文明最伟大的起点
2025-09-08 16:00:14
谷歌推出 DataGemma:基于可信数据源提高 AI 准确度,减少幻觉
2024-09-13 08:08:39
OpenAI SearchGPT 官方演示大翻车,源代码竟暴露搜索机制
2024-07-28 18:12:18
DeepSeek给中国软件埋了一个「地雷」?
2025-06-24 09:14:11
研究发现:要求 AI 简洁作答可能致其出现更多“幻觉”
2025-05-08 21:36:47
OpenAI新幻觉论文惹争议!GPT-5拉胯是测试基准有问题??
2025-09-14 14:43:28
大模型「幻觉」全无?图神经网络成破解核心,精准预测因果消除「幻觉」
2024-06-17 15:05:45
李彦宏最新发声:大模型基本消除幻觉 AI变得可用可信赖!
2024-11-12 11:04:12
斯坦福学者承认其法庭文件因使用 ChatGPT 出错,但称不影响文件实质内容
2024-12-05 10:57:00
大模型产生幻觉,全怪人类PUA吗?
2025-09-10 15:36:03
马蜂窝AI旅行助手官宣上线,DeepSeek大模型+垂直精调模型致力打破“幻觉”
2025-04-28 16:54:40
谷歌发布 FACTS Grounding 基准:Gemini、GPT-4o、Claude 当评委,成 AI 大语言模型“幻觉照妖镜”
2024-12-18 14:32:52
24小时热文
更多
扫一扫体验小程序