1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
DeepSeek大量招人,该梁文锋上场了
2026年初,DeepSeek在技术领域动作频频,接连发布两篇重磅论文并开源新模块Engram代码。1月1日发布的《mHC》解决了超大规模模型训练稳定性问题,而最新模块Engram则通过外挂式记忆提升大模型知识调取效率。两项研究均以梁文锋为核心作者,显示团队正为下一代模型V4积累关键技术。与此同时,DeepSeek开启大规模招聘,涵盖深度学习研究员、全栈工程师等核心岗位,工作地点包括北京和杭州。行业分析认为,DeepSeek V4或将结合MoE计算效率、Engram低成本记忆及mHC稳定性,成为一款架构精巧的‘缝合怪’,进一步巩固其行业地位。春节将至,DeepSeek的技术布局或预示V4即将发布。
QuantumHacker
01-16 15:41:13
DeepSeek
Engram
梁文锋
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek发布梁文锋署名新论文 开源相关记忆模块Engram
1月12日晚,DeepSeek发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》,作者包括北京大学与DeepSeek团队,署名中出现梁文锋。论文提出条件记忆(conditional memory)概念,通过引入可扩展查找记忆结构,在相同参数和算力下显著提升大型语言模型在知识调用、推理、代码及数学任务中的表现。同时,DeepSeek开源了相关记忆模块Engram,为研究社区提供重要资源。这一成果为AI模型稀疏性研究开辟了新方向,具有重要意义。
AI奇点纪元
01-13 09:25:44
DeepSeek
Engram
条件记忆
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek 开源大模型记忆模块:梁文锋署名新论文,下一代稀疏模型提前剧透
DeepSeek团队在节前发布新论文,提出为Transformer加入“条件记忆”模块Engram,补足知识查找机制。该研究由梁文锋与北京大学团队合作完成,认为条件记忆是下一代稀疏模型的关键。Engram通过哈希查找和上下文感知门控机制优化静态知识检索,减少计算浪费,并解决传统N-gram模型的存储爆炸和多义性问题。实验表明,在27B参数规模下,Engram模型在知识密集型和推理任务中均显著优于纯MoE模型,部分任务提升超预期。此外,百亿参数表可卸载至CPU,推理延迟几乎无影响。DeepSeek计划春节前发布下一代稀疏模型,相关论文已开源。
智能维度跳跃
01-13 09:22:36
Engram模块
条件记忆
稀疏模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序