DeepSeek的新注意力机制论文再次引发热议。论文提出了一种名为NSA(Native Sparse Attention)的可原生训练的稀疏注意力机制,旨在解决大模型上下文建模中计算成本高的问题。
实验显示,NSA在64k上下文解码时,前向传播速度提升9倍,反向传播速度提升6倍,解码速度提升11.6倍,且不影响性能。NSA通过动态分层稀疏策略、粗粒度Token压缩和细粒度Token选择来实现这些改进。
NSA的核心方法包括: - 动态分层稀疏策略 - 粗粒度Token压缩 - 细粒度Token选择
这些方法通过压缩、选择和滑动窗口策略优化注意力输出,保持高稀疏率,减少计算量并避免信息丢失。NSA在多项基准测试中表现出色,特别是在推理任务DROP中,性能显著提升。
研究人员使用27B参数规模的模型进行实验,结果表明NSA不仅收敛稳定,而且损失值更低。此外,NSA在8-GPU A100系统上的训练加速效果显著,尤其是在64k上下文长度时。
论文作者为DeepSeek团队,梁文锋亲自提交至arXiv。这一进展引发了关于大模型训练效率的新思考,可能开启一条更高效、更本地化的路径。
原文链接
本文链接:https://kx.umi6.com/article/13799.html
转载请注明文章出处
相关推荐
换一换
DeepSeek对“王一博案”道歉?假新闻!
2025-07-03 23:32:06
DeepSeek 通知线上模型版本升级至 V3.1,上下文长度拓展至 128k
2025-08-19 21:05:45
DeepSeek首登《自然》封面:中国大模型创造新历史,做了OpenAI不敢做的事
2025-09-18 16:58:59
性能至少翻倍 DeepSeek官宣支持下一代国产AI芯片
2025-08-21 19:40:24
DeepSeek新模型上线
2025-09-30 11:25:43
DeepSeek降本秘诀曝光
2025-07-05 11:59:25
DeepSeek下一代技术提前曝光,梁文锋署名论文获ACL2025最佳论文奖
2025-07-31 09:00:51
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
2025-08-21 13:31:42
全球 6 大顶级 AI 实盘厮杀,Deepseek 三天收益爆赚 36% 傲视群雄
2025-10-22 08:40:07
报道称DeepSeek计划年底前发布AI智能体 公司暂无回应
2025-09-04 17:05:24
黄仁勋谈中国AI创新:以令人难以置信的速度前进
2025-07-16 17:12:34
DeepSeek V3.1突现离谱Bug:“极”字满屏乱蹦,开发者一脸懵逼
2025-08-26 14:46:26
玩完 DeepSeek R1 新版,外国网友又「蚌埠住了」?
2025-06-03 10:50:11
563 文章
257680 浏览
24小时热文
更多
-
2025-10-24 09:32:35 -
2025-10-24 09:31:18 -
2025-10-24 09:30:10