2025年7月,谷歌发布全新底层架构Mixture-of-Recursions(MoR),被称作“Transformer Killer”。该架构通过统一参数共享、自适应递归深度和高效KV缓存策略,实现内存减半、推理速度翻倍,并首次在单一框架内动态分配计算资源。相比Transformer,MoR在相同FLOPs预算下减少50%参数量,提升少样本准确率至43.1%,训练时间缩短19%,峰值内存降低25%。谷歌DeepMind联合KAIST AI与Mila团队完成这一创新,或将颠覆AI计算范式。未来效果尚需时间验证。
原文链接
本文链接:https://kx.umi6.com/article/21947.html
转载请注明文章出处
相关推荐
.png)
换一换
拳打英伟达、脚踢苹果?谷歌被曝加码推销自研芯片 AI助手也有进展
2025-09-04 07:58:34
Mamba一作预告新架构!长文论述Transformer≠最终解法
2025-07-09 14:03:28
谷歌为全美大学生送福利:未来三年投入 10 亿美元提供 AI 培训及订阅服务
2025-08-07 09:47:10
抗议者“审判”谷歌:AI 监管还不如三明治店
2025-07-01 22:59:50
硅谷巨头强强联手!谷歌与Meta达成100亿美元云计算合同
2025-08-22 10:52:34
谷歌CEO劈柴震撼预言:2030年AI直逼超人智能,80亿人认知被颠覆
2025-06-07 13:50:24
AI每次文本请求仅耗5滴水 谷歌环保账单被质疑美化
2025-08-22 10:50:15
谷歌又要遭欧盟反垄断打击?独立出版商针对其AI概览功能提出指控
2025-07-05 03:53:21
谷歌技术报告披露大模型能耗:响应一次相当于微波炉叮一秒
2025-08-22 14:50:41
Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了
2025-07-19 11:51:22
聊天机器人被指诱导 14 岁少年自杀,美国法官裁定谷歌须与 Character.AI 共同担责
2025-05-22 18:38:32
谷歌未来两年将在美投资 250 亿美元,用于 AI 数据中心建设
2025-07-16 16:05:14
OpenAI遭谷歌截胡!谷歌斥资24亿美元 引进AI编程公司的人才和技术
2025-07-14 18:29:49
470 文章
160166 浏览
24小时热文
更多

-
2025-09-07 00:40:01
-
2025-09-06 23:39:46
-
2025-09-06 22:39:24