正文:2025年7月19日,KAIST、谷歌DeepMind等机构联合发布了一种全新LLM架构——Mixture-of-Recursions(MoR),被业界称为潜在的“Transformer终结者”。MoR通过动态路由和递归机制,在推理速度上提升2倍,内存占用减半,并在135M到1.7B参数规模下划出新的帕累托前沿,全面超越传统Transformer。其核心创新包括小型路由器为token打分以减少冗余计算,以及KV缓存策略优化内存效率。实验表明,MoR在相同训练FLOPs下实现更低困惑度和更高小样本准确率,推理吞吐量提升超2倍。研究团队认为,MoR展现了高可扩展性和参数效率,或成为下一代LLM架构的标杆。
原文链接
本文链接:https://kx.umi6.com/article/22035.html
转载请注明文章出处
相关推荐
换一换
谷歌DeepMind在数学奥林匹克中达到金牌级别成绩
2025-07-22 14:36:07
全面超越Transformer!清华蚂蚁纯MLP架构,长短程时序预测大提升
2024-06-12 13:13:44
速度秒杀GPT们10倍,国外的DeepSeek时刻来了?
2025-03-14 08:00:03
谷歌DeepMind推出第二代大规模基础世界模型Genie 2 可一键生成3D互动世界
2024-12-05 11:00:12
谷歌DeepMind推出基因预测模型AlphaGenome
2025-06-26 09:39:50
谷歌 DeepMind 研究再登 Nature 封面,隐形水印让 AI 无所遁形
2024-11-08 13:22:18
Transformer作者:DeepSeek才有搞头,OpenAI指望不上了
2025-09-12 11:09:05
大模型玩不好数独?!Transformer作者初创公司公布排行榜:o3 Mini High“变异数独”正确率仅2.9%
2025-05-28 16:36:56
谷歌把整个地球装进大模型!实时观测,按天更新
2025-08-01 08:58:42
一位AI从业者的十年
2024-12-05 14:02:03
另一位Yao Shunyu也跳槽了:与Anthropic价值观有根本分歧
2025-10-09 09:04:51
OpenAI拿IMO金牌火了,为何大批人却怒了?
2025-07-22 10:30:21
谷歌 AI 掌门人 Jeff Dean 对话 Transformer 作者:AI 提速 300%,1000 万倍工程师要来了
2025-02-22 18:43:08
612 文章
341945 浏览
24小时热文
更多
-
2025-12-09 16:53:30 -
2025-12-09 16:52:31 -
2025-12-09 16:52:23