1月12日晚,DeepSeek发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》,作者包括北京大学与DeepSeek团队,署名中出现梁文锋。论文提出条件记忆(conditional memory)概念,通过引入可扩展查找记忆结构,在相同参数和算力下显著提升大型语言模型在知识调用、推理、代码及数学任务中的表现。同时,DeepSeek开源了相关记忆模块Engram,为研究社区提供重要资源。这一成果为AI模型稀疏性研究开辟了新方向,具有重要意义。
原文链接
本文链接:https://kx.umi6.com/article/31530.html
转载请注明文章出处
相关推荐
换一换
DeepSeek催化下,芯片带领沪指突破3800点
2025-08-22 20:52:41
智谱创始人唐杰谈 DeepSeek:很震撼,开启了“AI 做事”新范式
2026-01-12 09:23:20
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
2025-08-21 13:31:42
DeepSeek一句话让国产芯片集体暴涨!背后的UE8M0 FP8到底是个啥
2025-08-22 14:48:58
DeepSeek发布梁文锋署名新论文 开源相关记忆模块Engram
2026-01-13 09:25:44
梁文锋等来及时雨
2025-07-15 17:50:04
被AI「摩擦」的十天:一个普通人的上手记
2025-08-16 18:28:03
全球 6 大顶级 AI 实盘厮杀,Deepseek 三天收益爆赚 36% 傲视群雄
2025-10-22 08:40:07
大模型退火之后,AI手机还好吗
2025-06-25 08:26:26
梁文锋,准备战斗
2025-07-30 17:51:33
DeepSeek官方点赞元宝,罕见现身互动
2025-12-24 17:46:41
黄仁勋新年第一场演讲提了DeepSeek 推动了整个行业变革
2026-01-06 08:54:05
DeepSeek线上模型版本升级至V3.1
2025-08-19 20:04:27
659 文章
419570 浏览
24小时热文
更多
-
2026-01-13 11:43:16 -
2026-01-13 11:42:11 -
2026-01-13 11:41:05