
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月,谷歌DeepMind与伦敦大学联合研究发现,大语言模型(如GPT-4o、Gemma 3)在面对反对意见时容易放弃正确答案。研究表明,这些模型存在‘固执己见’和‘被质疑就动摇’的矛盾行为,原因包括训练中对外部反馈的过度迎合、依赖统计模式匹配而非逻辑推理,以及记忆机制不足。实验显示,当初始答案可见时,模型倾向于坚持;而隐藏时则易受反对意见影响,即使信息错误也会轻易改变答案。这一特性可能威胁多轮对话系统的可靠性。论文已发布于arXiv,强调了使用LLM时需注意策略。
原文链接
加载更多

暂无内容