Mamba核心作者新作:专为推理优化的注意力机制
曾推动Transformer革新的Mamba作者之一Tri Dao,发布新研究——提出两种专为推理设计的注意力机制,大幅提升了解码速度和吞吐量,尤其在长上下文推理中表现优异。
这项由普林斯顿大学团队完成的研究包含两大创新:
其一,Grouped-Tied Attention(GTA),与已在Llama 3中应用的GQA性能相当,但KV缓存用量减少约50%。
其二,Grouped Latent Attention(GLA),与DeepSeek使用的MLA质量相近,但解码速度更快,某些情况下比FlashMLA快2倍。
团队总结称,GTA是GQA的良好替代,GLA则是MLA的高效选择。
论文聚焦于通过优化注意力机制的内存使用和计算逻辑,在保持生成质量的同时显著提升推理效率。研究从两个方向改进:提高硬件效率与保持并行可扩展性。
GTA通过分组共享和参数绑定大幅降低KV缓存需求,而GLA则借助潜在层减少KV访问量,同时保持并行性。
实验显示,GTA在中大型模型中优于GQA,GLA则在多种场景下与MLA表现相当。两者在长上下文推理中表现出色,尤其GLA在吞吐量和资源利用上更具优势。
研究者认为,这项工作只是迈向推理“理想”架构的第一步。相关论文已公开,代码也在GitHub上线。
原文链接
本文链接:https://kx.umi6.com/article/19568.html
转载请注明文章出处
相关推荐
换一换
基准测试揭秘大模型“字数危机”:26个模型长文本生成普遍拉胯,最大输出长度过度宣传
2025-05-29 15:34:10
美团CEO王兴:将继续加大投资开发大语言模型
2025-05-26 21:54:46
阿里AI TO C 业务启动近千人招聘
2025-08-13 16:39:25
李飞飞一年前究竟说了啥?怎么又火了
2025-09-11 14:55:23
科学家发现多数大语言模型测试标准存在缺陷,无法客观给出评分
2025-11-08 21:59:46
海洋领域首个业务化垂直领域大语言模型“瀚海智语”发布:基于 360 智脑和 DeepSeek 开发
2025-03-24 16:09:30
大模型来了,你要裁员吗?
2024-07-12 08:41:18
中国科学院科学家首次证实:大语言模型能像人类一样“理解”事物
2025-06-11 10:10:26
意识智能体:大模型的下一个进化方向?:计算意识理论综述II
2025-09-07 19:49:04
顶级AI认知能力输给老年人,大模型集体翻车
2025-01-13 09:55:05
警惕AI大模型的“共情鸿沟”,剑桥团队呼吁:我们需要“儿童安全人工智能”框架
2024-07-11 15:47:39
讲座预约 | AI4S 的前世今生:大语言模型与提示学习在科技研发中的应用与潜力丨GAIR Live
2024-09-12 09:43:52
美国哥伦比亚大学研究:大语言模型正在变得越来越像人类大脑
2024-12-20 11:27:54
593 文章
346727 浏览
24小时热文
更多
-
2025-12-10 08:35:53 -
2025-12-10 08:34:53 -
2025-12-10 08:33:46