1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

正文:2025年7月19日,KAIST、谷歌DeepMind等机构联合发布了一种全新LLM架构——Mixture-of-Recursions(MoR),被业界称为潜在的“Transformer终结者”。MoR通过动态路由和递归机制,在推理速度上提升2倍,内存占用减半,并在135M到1.7B参数规模下划出新的帕累托前沿,全面超越传统Transformer。其核心创新包括小型路由器为token打分以减少冗余计算,以及KV缓存策略优化内存效率。实验表明,MoR在相同训练FLOPs下实现更低困惑度和更高小样本准确率,推理吞吐量提升超2倍。研究团队认为,MoR展现了高可扩展性和参数效率,或成为下一代LLM架构的标杆。

原文链接
本文链接:https://kx.umi6.com/article/22035.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
速度秒杀GPT们10倍,国外的DeepSeek时刻来了?
2025-03-14 08:00:03
谷歌 DeepMind 最强 AI 手语翻译模型:SignGemma 登场,打破手语沟通壁垒
2025-05-31 12:05:15
谷歌DeepMind开发新AI 可为视频生成配乐和对白
2024-06-20 11:22:33
陈丹琦团队揭Transformer内部原理:另辟蹊径,从构建初代聊天机器人入手
2024-07-18 15:55:09
一句话生成任务专属LoRA!Transformer作者创业公司颠覆LLM微调
2025-06-13 18:12:01
132年未解开的李雅普诺夫函数谜题,被AI攻克了?
2024-10-20 20:02:17
比英伟达快20倍!哈佛辍学生发布大模型芯片 属于AI的“矿机革命”要来了?
2024-06-27 18:29:52
Transformer能否推理引争议,DeepMind连夜更新论文开源数据集:Transformer真的很强
2024-10-23 10:38:01
两位00后,融资8个亿
2024-06-29 16:53:08
OpenAI拿IMO金牌火了,为何大批人却怒了?
2025-07-22 10:30:21
彩云小梦V3.5上线!首个基于DCFormer架构通用大模型发布
2024-11-13 18:44:50
AI 架构 Transformer 再进化:谷歌新方法突破长文本处理,注意力模块内存需求可降至 1/47
2024-10-09 12:26:03
OpenAI的前世今生
2025-08-27 10:01:51
24小时热文
更多
扫一扫体验小程序