1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:打破推理瓶颈!“软推理”让大模型学会人类抽象能力,token使用量还更少了

正文:
不再像“思维链”那样逐字生成,加入“软思维”后,大模型能像人类一样进行抽象思考。来自SimularAI和微软DeepSpeed的研究团队提出“Soft Thinking”,让模型在“连续概念空间”中推理,而非局限于离散的token,从而突破基于离散token的推理瓶颈。

相比标准CoT,Soft Thinking提升了Pass@1平均准确率2.48%,并减少了22.4%的token使用量。更重要的是,它是一种“即插即用”的推理策略,无需额外训练即可应用于现有模型,如Llama、Qwen等。

主流语言模型推理面临的问题是只能逐字生成离散的语言符号,这限制了抽象概念的表达能力,并易因单一路径选择出错。而人类推理依靠灵活整合抽象概念。受此启发,Soft Thinking将推理从“离散符号空间”扩展到“连续概念空间”,使模型能在细微语义间捕捉概念,更灵活地探索多种解题路径,同时保持高效和可解释性。

Soft Thinking仅修改传统CoT的中间推理阶段,保留最终答案的离散生成。其理论基础是“线性近似替代路径枚举”,通过概率加权替代离散采样,利用连续概念空间中的线性变换聚合多条路径信息,避免计算爆炸。此外,通过概念token的概率分布代替单一符号,模型能同时保留多种推理可能性。

为了防止无效循环,Soft Thinking引入“Cold Stop”机制,通过熵值监测模型的自信程度,当模型足够确定时,提前终止中间步骤,直接生成答案。

测试结果显示,QwQ – 32B模型的平均Pass@1准确率从83.84%提升至86.32%,最高提升2.48%。在数学任务中,DeepSeek-R1-Distill-Qwen-32B的token使用量减少22.4%。与COCONUT-TF和平均嵌入策略相比,Soft Thinking在效率和准确性上均有显著优势。

官方网站:https://soft-thinking.github.io/
论文地址:https://arxiv.org/abs/2505.15778
代码地址:https://github.com/eric-ai-lab/Soft-Thinking
参考链接:https://x.com/xwang_lk/status/1925399783503798692

原文链接
本文链接:https://kx.umi6.com/article/19175.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
大模型套壳往事
2025-07-14 18:26:03
亚马逊云科技大中华区总裁储瑞松:Agentic AI处于爆发前夜
2025-06-19 10:49:07
IDC评测9家座舱大模型产品 斑马获最多项满分推荐
2025-07-18 11:36:59
我国大模型数量居全球首位,达到 1509 个、占比达 40%
2025-07-27 13:57:47
毕马威报告:中国银行业在大模型落地应用方面走在前列
2025-06-23 16:27:32
2025大模型半年回顾:模型速度变缓
2025-06-25 19:34:48
训练大模型烧了那么多钱,商业价值到底在哪?
2025-07-04 09:39:31
讯飞星火 X1 升级版模型宣布上线:整体效果对标 OpenAI o3 等国内外一流大模型
2025-07-25 14:25:03
大模型六小虎,创业小败局?
2025-06-23 13:31:23
在上海WAIC,800展商无一不想成为黄仁勋
2025-07-27 07:50:27
大模型热度退潮,真正的技术创新者开始被「看见」
2025-06-20 17:06:44
消费电子将被大模型重新定义?云天励飞董事长陈宁:看好推理算力需求的爆发 全面押注AI芯片
2025-07-25 11:23:59
马斯克Grok-4碾压所有大模型!“比所有博士聪明”,AIME25拿满分
2025-07-10 16:23:20
24小时热文
更多
扫一扫体验小程序