标题:浙大InftyThink:给大模型装上「思维分段引擎」
学会“适当暂停与总结”,大模型终于实现无限推理。就像人类无法一口气完成复杂数学证明,现有大模型在长上下文推理中也因计算成本激增或上下文长度受限而被迫中断。
浙江大学联合北京大学的研究团队受人类“分段思考+归纳总结”的启发,提出了名为InftyThink的新推理范式。它将单一长推理拆解为多个短片段,并在片段间加入总结,突破了推理长度限制,理论上实现了无限深度推理,同时保持高生成效率。
InftyThink的核心在于“迭代式推理与阶段性总结”。它将长推理分成多次短推理,每次生成有限内容并附带总结,作为后续推理的输入。这种方式既模仿了人类认知过程,又避免了传统推理的上下文长度和计算复杂度问题。此外,它采用“锯齿式”内存管理,每轮推理后清理前轮上下文,仅保留总结,显著降低计算开销。
研究团队还提供了一种数据重构方法,将传统推理数据转换为InftyThink格式,包括片段划分、总结生成和训练样本构建。这种方法无需改变模型结构,可与现有训练流程无缝结合。
实验显示,InftyThink在多个模型上均表现出色。相比传统推理,它不仅提升了推理深度,在AIME24基准上性能提高13%,还提升了生成吞吐量至2.67K Token/s。无论模型大小如何,InftyThink都展现了稳定且显著的性能提升,尤其适合小模型的应用场景。
论文链接:https://arxiv.org/abs/2503.06692
项目链接:https://zju-real.github.io/InftyThink
代码链接:https://github.com/ZJU-REAL/InftyThink
原文链接
本文链接:https://kx.umi6.com/article/19942.html
转载请注明文章出处
相关推荐
换一换
杭州“十五五”规划建议:实施大模型前沿技术攻关和高端芯片、基础软件、模型算法等研发计划 建设人工智能开源社区
2026-01-16 11:34:57
花3000元让AI改口,大模型的尽头是广告?
2026-01-06 19:29:29
Karpathy 最新发文:别把 AI 当人看,它没欲望也不怕死
2025-11-22 19:29:36
1300000000000000!谷歌每月Tokens消耗量曝光(别数了是千万亿)
2025-10-11 09:26:13
腾讯调整大模型组织架构:姚顺雨加盟,向总裁刘炽平汇报
2025-12-18 15:51:59
中金:2026年大模型在强化学习、模型记忆、上下文工程等方面将取得更多突破
2026-02-05 08:39:59
百度世界2025将于11月13日在北京举办
2025-10-13 20:03:11
亚马逊云科技发布多款大模型
2025-12-03 14:25:54
“雷军千万年薪要挖”的 DeepSeek 罗福莉官宣加入小米 Xiaomi MiMo 大模型团队
2025-11-12 14:05:32
从 CIPS & CLM 迈进:中国大模型的智能跃迁
2025-10-30 17:51:34
上海已发布超150款备案大模型
2026-03-28 20:16:44
大模型产生幻觉,全怪人类PUA吗?
2025-09-10 15:36:03
大模型即OS,AI云即计算机:阿里的全栈赌注
2025-09-25 10:00:29
696 文章
559418 浏览
24小时热文
更多
-
2026-04-30 21:49:33 -
2026-04-30 20:46:08 -
2026-04-30 19:44:51