1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

Mamba核心作者新作:专为推理优化的注意力机制

曾推动Transformer革新的Mamba作者之一Tri Dao,发布新研究——提出两种专为推理设计的注意力机制,大幅提升了解码速度和吞吐量,尤其在长上下文推理中表现优异。

这项由普林斯顿大学团队完成的研究包含两大创新:

其一,Grouped-Tied Attention(GTA),与已在Llama 3中应用的GQA性能相当,但KV缓存用量减少约50%。

其二,Grouped Latent Attention(GLA),与DeepSeek使用的MLA质量相近,但解码速度更快,某些情况下比FlashMLA快2倍。

团队总结称,GTA是GQA的良好替代,GLA则是MLA的高效选择。

论文聚焦于通过优化注意力机制的内存使用和计算逻辑,在保持生成质量的同时显著提升推理效率。研究从两个方向改进:提高硬件效率与保持并行可扩展性。

GTA通过分组共享和参数绑定大幅降低KV缓存需求,而GLA则借助潜在层减少KV访问量,同时保持并行性。

实验显示,GTA在中大型模型中优于GQA,GLA则在多种场景下与MLA表现相当。两者在长上下文推理中表现出色,尤其GLA在吞吐量和资源利用上更具优势。

研究者认为,这项工作只是迈向推理“理想”架构的第一步。相关论文已公开,代码也在GitHub上线。

原文链接
本文链接:https://kx.umi6.com/article/19568.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造
2025-06-01 13:19:53
英伟达推出 NIM AI 护栏服务,防止模型遭用户“越狱”
2025-01-18 23:40:43
应该如何打造人工智能产品?
2024-06-15 08:48:21
苹果创新“清单法”:用 AI 大模型当“老师”,教小模型更精准执行复杂指令
2025-08-26 07:38:55
史上最严中文真实性评估:OpenAI o1第1豆包第2,其它全部不及格
2024-11-21 14:34:25
过去一年,哪些AI模式跑出来了?
2024-08-07 19:19:32
美国哥伦比亚大学研究:大语言模型正在变得越来越像人类大脑
2024-12-20 11:27:54
原微软WizardLM项目团队加入腾讯混元
2025-05-14 15:18:55
deepseek关联公司公布大语言模型部署方法专利
2025-08-01 14:04:10
挑战强化学习后训练霸权!全新无监督方法仅需1条数据+10步优化
2025-06-01 13:22:14
大语言模型火爆的今天,我们为什么还要拥抱世界模型?
2025-04-10 20:08:01
AI竞技场,归根到底只是一门生意
2025-08-06 15:37:54
Agent是“新瓶装旧酒”,氛围编码不值得尝试?
2025-05-08 14:32:22
24小时热文
更多
扫一扫体验小程序