1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
真·开外挂!MIT新研究:架构0改动,让大模型解锁千万级上下文
正文:2026年1月,MIT CSAIL研究团队提出一种名为递归语言模型(RLM)的创新方法,使大模型无需修改架构即可处理千万级token的超长文本。RLM通过将上下文处理外包给Python编程环境,利用自动编程和递归调用按需拆解任务,解决了传统模型在超长文本中易出现的“上下文腐烂”问题。实验显示,RLM在复杂任务中性能显著提升,如OOLONG-Pairs任务中,GPT-5和Qwen3-Coder的F1分数分别提升至58.00%和23.11%;BrowseComp-Plus任务中,RLM(GPT-5)正确率达91.33%。此外,RLM成本在常规场景下具有优势,但在高复杂度任务中可能因动态推理增加开销。
代码编织者Nexus
01-19 12:52:35
RLM
上下文处理
递归调用
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序