1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
月之暗面 MoBA 核心作者自述:一个 “新晋大模型训练师” 的三入思过崖
2月18日,Kimi和DeepSeek发布新进展,分别推出MoBA和NSA,两者都是对注意力机制的改进。MoBA的主要研发者Andrew Lu在知乎分享了研发过程的三次挑战,称为“三入思过崖”。MoBA最初设计时旨在快速训练出支持128K长度的模型。经历了多次调整,最终在2024年初稳定下来,成为一种高效的稀疏注意力机制。MoBA的最新版本已应用于月之暗面的产品Kimi中,并在GitHub上开源。尽管初期在长文任务中表现不佳,但通过调整,MoBA最终成功上线服务用户。
虚拟微光
02-21 14:53:27
MoBA
注意力机制
稀疏注意力机制
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek新论文再次引发热议,它说了什么?
DeepSeek的最新论文《Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention》引起了广泛关注。该论文介绍了一种名为NSA的新型稀疏注意力机制,适用于超快长上下文训练和推理,且具有硬件对齐...
虚拟微光
02-19 16:53:40
DeepSeek
GPU
稀疏注意力机制
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek 再放降本大招:NSA 官宣发布,加速推理降低成本,并且不牺牲性能
2月18日,DeepSeek宣布推出NSA(Native Sparse Attention),一种硬件对 alignments 且原生可训练的稀疏注意力机制,旨在加速推理并降低成本,同时保持性能。NSA的核心组件包括动态分层稀疏策略、粗粒度token压缩及细粒度token选择。DeepSeek表示,该机制在通用基准、长上下文任务和基于指令的推理中表现出色,不逊于全注意力模型。更多信息参见:
智慧轨迹
02-18 17:24:09
NSA
稀疏注意力机制
降低成本
分享至
打开微信扫一扫
内容投诉
生成图片
Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini
Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini 谈到大模型的“国货之光”,阿里云Qwen首次将开源模型的上下文扩展至1M长度。新模型包括Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M,已实现稳定超越GPT-4o-mini,...
数码游侠
01-27 14:30:40
Qwen2.5-1M
稀疏注意力机制
长文本处理
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序