2月18日,梁文锋带领DeepSeek团队发布新研究,论文发布仅3小时即获30多万浏览量。他们提出一种名为NSA的新注意力机制,用于超快速的长上下文训练与推理。NSA包括动态分层稀疏策略、粗粒度的token压缩及细粒度的token选择,使推理速度提升11.6倍,同时降低预训练成本。
梁文锋亲自参与并提交了这篇论文,显示出他对新成果的重视。DeepSeek填补了现有稀疏注意力机制的不足,特别是针对长上下文建模和复杂推理的需求。传统注意力机制在长序列下运行缓慢,NSA通过选择性计算关键query-key对,大幅降低了计算开销,提升了模型性能。
NSA支持端到端训练,结合硬件优化,实现了显著的速度提升。此外,新研究通过Triton开发了与硬件高度兼容的稀疏注意力内核。测试显示,NSA在多个基准测试中表现优异,尤其是在长文本和思维链推理任务中。
NSA还验证了两年前清华大学姚班的一项结论,即在处理复杂数学问题时,减少tokens数量可以提高准确性和效率。DeepSeek未来可能继续优化模型在长文本和代码库分析中的表现,以提升其推理能力和实用性。
原文链接
本文链接:https://kx.umi6.com/article/14177.html
转载请注明文章出处
相关推荐
换一换
DeepSeek突然拥抱国产GPU语言!对标CUDA替代Triton,华为Day0适配
2025-09-30 10:23:35
MAU被豆包反超,Deepseek挤了点牙膏
2025-10-21 15:28:27
DeepSeek终于把OpenAI逼急了
2025-08-06 16:35:39
人民呼唤DeepSeek!
2025-07-16 12:02:16
梁文锋代表DeepSeek,他代表梁文锋
2025-11-16 12:31:32
DeepSeek昨天悄悄扔的炸弹,今天爆了
2025-08-22 17:51:00
德国要求苹果与谷歌下架DeepSeek应用 中方已多次明确表态
2025-06-28 12:19:15
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
2025-08-21 13:31:42
罗永浩:新AI产品3个月后见 DeepSeek创始人建议我“靠嘴吃饭”
2025-06-22 11:15:34
DeepSeek首次回应蒸馏OpenAI质疑 :没有故意加入合成数据
2025-09-18 14:54:07
Transformer作者:DeepSeek才有搞头,OpenAI指望不上了
2025-09-12 11:09:05
字节跳动Seed团队发布扩散语言模型 每秒推理速度2146 tokens
2025-08-01 09:24:01
DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版
2025-06-13 16:11:09
569 文章
325814 浏览
24小时热文
更多
-
2025-12-08 19:45:13 -
2025-12-08 19:43:05 -
2025-12-08 18:41:52