1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

2025年7月,谷歌DeepMind与伦敦大学联合研究发现,大语言模型(如GPT-4o、Gemma 3)在面对反对意见时容易放弃正确答案。研究表明,这些模型存在‘固执己见’和‘被质疑就动摇’的矛盾行为,原因包括训练中对外部反馈的过度迎合、依赖统计模式匹配而非逻辑推理,以及记忆机制不足。实验显示,当初始答案可见时,模型倾向于坚持;而隐藏时则易受反对意见影响,即使信息错误也会轻易改变答案。这一特性可能威胁多轮对话系统的可靠性。论文已发布于arXiv,强调了使用LLM时需注意策略。

原文链接
本文链接:https://kx.umi6.com/article/22069.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
实测腾讯混元图像2.0模型 可毫秒级“边说话边出图”
2025-05-16 19:56:38
60%情况下主流大模型没理解风险只是装懂!别被“安全答案”骗了
2025-06-10 17:51:47
聊透Agent,它是“同事”还是“工具”,创业机会和价值究竟是什么?
2025-06-13 16:14:41
24小时热文
更多
扫一扫体验小程序