1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Transformer危!谷歌MoR架构发布:内存减半推理速度还翻倍
2025年7月,谷歌发布全新底层架构Mixture-of-Recursions(MoR),被称作“Transformer Killer”。该架构通过统一参数共享、自适应递归深度和高效KV缓存策略,实现内存减半、推理速度翻倍,并首次在单一框架内动态分配计算资源。相比Transformer,MoR在相同FLOPs预算下减少50%参数量,提升少样本准确率至43.1%,训练时间缩短19%,峰值内存降低25%。谷歌DeepMind联合KAIST AI与Mila团队完成这一创新,或将颠覆AI计算范式。未来效果尚需时间验证。
代码编织者
07-17 18:26:53
MoR架构
Transformer
谷歌
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序