1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

美团龙猫LongCat系列推出全新稀疏注意力机制LoZA(LongCat ZigZag Attention),显著提升长文本处理能力。新技术将上下文窗口扩展至1M,解码速度比之前快10倍,且在256K文本预加载时提速超50%。

全注意力机制因平方级计算复杂度(O(L²))难以高效处理长文本。LoZA通过“只算关键部分”优化这一瓶颈。具体方法是:先为多头潜在注意力模块(MLA)引入可学习权重α,筛选出对性能影响较小的模块;然后将其中50%低性能模块替换为线性复杂度(O(L·S))的流式稀疏注意力(SSA)。这种交错结构被称为ZigZag,既保留模型理解能力,又大幅降低计算成本。

此外,LoZA设计了1024Token稀疏窗口,包含1个全局块和7个局部块,分别负责整体关联与局部细节。改造无需从头训练,可在中期完成,成本较低。测试显示,LoZA在速度和性能上均表现出色:处理128K上下文时解码速度快10倍;256K上下文预加载提速50%,后续解码节省30%算力,硬件效率翻倍。同时,其性能未因简化缩水,在回答问题、写代码等任务中与原版持平,长文本任务表现更优,甚至超越Qwen-3模型。

未来,团队计划让LoZA支持动态稀疏比例,根据场景自动调整全注意力与稀疏模块比例,并探索多模态应用。论文地址:https://www.alphaxiv.org/abs/2512.23966

原文链接
本文链接:https://kx.umi6.com/article/31552.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini
2025-01-27 14:30:40
LG 发布 EXAONE 3.5 开源 AI 模型:长文本处理利器、独特技术有效降低“幻觉”
2024-12-11 09:21:31
美团龙猫LongCat技术升级!新注意力机制解码速度快10倍,还能处理1M超长文本
2026-01-13 13:35:04
腾讯发最大开源MoE模型,3890亿参数免费可商用,跑分超Llama3.1
2024-11-07 10:16:21
DeepSeek下一代技术提前曝光
2025-07-31 09:02:46
0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源
2025-06-10 16:50:15
OpenAI发布GPT-4.1:开发者“特供”,超越4o,但还没遥遥领先
2025-04-15 15:34:47
阿里通义千问发布 Qwen2.5-Turbo 开源 AI 模型:支持 100 万 tokens 上下文,处理时间缩短至 68 秒
2024-11-19 14:52:17
字节跳动开源长文本处理模型Seed-OSS-36B
2025-08-21 14:39:00
机构:2030年活跃Agent数量将快速攀升至22.16亿
2026-01-12 21:58:23
10 后成了「AI 原住民」
2026-01-13 11:36:32
Adobe Firefly AI 创作平台上线 GPT-Image 1.5 模型,订阅用户 1 月 15 日前可不限量生成图片
2026-01-13 07:18:38
“全球CIS三强”豪威集团在港开启全球发售
2026-01-12 10:27:18
24小时热文
更多
扫一扫体验小程序