最新研究发现,推理大模型在处理高难度问题时会出现“欠思考”现象,频繁切换解题思路导致无效努力。腾讯AI实验室、苏州大学和上海交大团队通过分析DeepSeek-R1和Qwen QwQ系列模型,指出这些模型在初期找到正确思路后,很快转向其他思路,浪费计算资源。研究显示,类o1模型在错误回答中比正确回答多消耗225%的token,思维切换频率增加418%。为解决此问题,研究者提出“思路切换惩罚机制”(TIP),使模型在AIME2024测试中准确率提升4%。同时,UC Berkeley教授Alex Dimakis建议采用“简洁解码”策略,提高6%-7%的准确率。
原文链接
本文链接:https://kx.umi6.com/article/12545.html
转载请注明文章出处
相关推荐
.png)
换一换
攻击DeepSeek最薄弱的地方,发现……
2025-02-03 15:15:35
小米首个推理大模型开源
2025-04-30 20:36:34
度小满,让“推理大模型”走向金融核心业务
2024-10-31 11:42:48
427 文章
61098 浏览
24小时热文
更多

-
2025-07-19 22:57:32
-
2025-07-19 21:58:20
-
2025-07-19 21:57:13