2025年7月,谷歌DeepMind与伦敦大学联合研究发现,大语言模型(如GPT-4o、Gemma 3)在面对反对意见时容易放弃正确答案。研究表明,这些模型存在‘固执己见’和‘被质疑就动摇’的矛盾行为,原因包括训练中对外部反馈的过度迎合、依赖统计模式匹配而非逻辑推理,以及记忆机制不足。实验显示,当初始答案可见时,模型倾向于坚持;而隐藏时则易受反对意见影响,即使信息错误也会轻易改变答案。这一特性可能威胁多轮对话系统的可靠性。论文已发布于arXiv,强调了使用LLM时需注意策略。
原文链接
本文链接:https://kx.umi6.com/article/22069.html
转载请注明文章出处
相关推荐
.png)
换一换
实测腾讯混元图像2.0模型 可毫秒级“边说话边出图”
2025-05-16 19:56:38
60%情况下主流大模型没理解风险只是装懂!别被“安全答案”骗了
2025-06-10 17:51:47
聊透Agent,它是“同事”还是“工具”,创业机会和价值究竟是什么?
2025-06-13 16:14:41
419 文章
63858 浏览
24小时热文
更多

-
2025-07-20 19:08:20
-
2025-07-20 19:07:11
-
2025-07-20 17:06:49