正文:2025年7月19日,KAIST、谷歌DeepMind等机构联合发布了一种全新LLM架构——Mixture-of-Recursions(MoR),被业界称为潜在的“Transformer终结者”。MoR通过动态路由和递归机制,在推理速度上提升2倍,内存占用减半,并在135M到1.7B参数规模下划出新的帕累托前沿,全面超越传统Transformer。其核心创新包括小型路由器为token打分以减少冗余计算,以及KV缓存策略优化内存效率。实验表明,MoR在相同训练FLOPs下实现更低困惑度和更高小样本准确率,推理吞吐量提升超2倍。研究团队认为,MoR展现了高可扩展性和参数效率,或成为下一代LLM架构的标杆。
原文链接
本文链接:https://kx.umi6.com/article/22035.html
转载请注明文章出处
相关推荐
换一换
AI“手指难题”翻车,6 根手指暴露 Transformer 致命缺陷
2025-12-15 22:02:22
苹果AI选Mamba:Agent任务比Transformer更好
2025-10-21 14:27:27
8 年首次大突破:谷歌祭出 Transformer 杀手,掌门人划出 AGI 死线
2025-12-07 15:34:40
GPT-5与Transformer共同发明人Lukasz Kaiser重磅加盟,2025 全球机器学习技术大会全日程官宣!
2025-09-18 16:55:56
OpenAI 收购 Windsurf 计划告吹,后者 CEO 及创始人已被谷歌招入麾下
2025-07-12 11:50:23
32个随机数字,1分钟推演地球未来15天丨谷歌DeepMind
2025-11-18 13:18:08
Google AI编年史
2025-11-04 16:20:36
LLM 的“母语”是什么?
2024-06-03 07:50:10
o3来了,通用人工智能真的触手可及吗?
2025-01-07 09:58:26
谷歌把整个地球装进大模型!实时观测,按天更新
2025-08-01 08:58:42
大模型玩不好数独?!Transformer作者初创公司公布排行榜:o3 Mini High“变异数独”正确率仅2.9%
2025-05-28 16:36:56
AI怎样模仿人类大脑的注意力机制?
2025-05-17 11:04:36
小米语音首席科学家:AI发展的本质就像生物进化,不开源要慢1000倍 | MEET2026
2025-12-16 09:28:45
660 文章
413463 浏览
24小时热文
更多
-
2026-01-24 09:49:27 -
2026-01-24 01:23:32 -
2026-01-24 00:23:19