标题:华人团队提出“Memory Decoder”,低成本让模型变专家
正文:
上海交大和上海AI Lab等机构的研究团队提出了一种名为“Memory Decoder”的创新方法,能让Qwen、Llama等大语言模型轻松适配生物医学、金融、法律等专业领域。相比主流的DAPT(领域自适应预训练)和RAG(检索增强生成),这一方法无需昂贵的全参数训练或耗时的检索,成本更低且效率更高。实验表明,该方法使模型在三个领域的困惑度平均降低6.17分,相当于预测准确率提升约20%~25%。
Memory Decoder本质上是一个小型Transformer解码器,充当“领域知识插件”。它在预训练阶段模仿外部检索器行为,将特定领域的知识压缩到自身参数中;在推理阶段,与大模型结合,通过结果融合提升预测质量。例如,当用户提问“大众汽车的CEO是谁?”时,大模型可能给出模糊答案,而Memory Decoder会更倾向输出正确答案“布鲁默”,从而优化最终结果。
研究团队测试了不同参数量的Qwen和Llama模型,发现Memory Decoder能显著降低困惑度,尤其在生物医学、金融和法律领域表现突出。更值得一提的是,为Qwen训练的Memory Decoder只需极少额外训练(原始成本的10%),即可适配Llama系列模型,并持续优于传统LoRA方法。
不过,该方法也存在局限性:训练阶段需从大数据库中检索相关信息,造成一定计算开销;跨分词器适配时仍需少量参数更新,无法完全实现零样本迁移。但总体而言,Memory Decoder为领域自适应提供了一种即插即用的新范式,未来有望广泛应用于多种模型和场景。
论文链接:https://www.arxiv.org/abs/2508.09874
原文链接
本文链接:https://kx.umi6.com/article/23813.html
转载请注明文章出处
相关推荐
换一换
大模型全员0分!谢赛宁领衔华人团队,最新编程竞赛基准出炉,题目每日更新禁止刷题
2025-06-19 10:46:15
超越RAG和DAPT!华人团队:一个小解码器让所有模型当上领域专家
2025-08-19 16:02:27
华人团队产品借越南突围,「AI好友」月活破百万
2025-07-17 16:28:20
Manus背后的华人团队
2025-03-07 09:46:20
小扎官宣Meta超级智能实验室!97年小孩哥带队,11人名单7位是华人
2025-07-01 09:51:52
英伟达巧用8B模型秒掉GPT-5,开源了
2025-12-06 14:32:11
英伟达 4B 小模型击败 GPT-5 Pro!单任务成本仅后者 1/36
2025-12-08 16:36:14
OpenAI最快将于下周二发布GPT-5.2
2025-12-06 07:18:55
深度复盘2025年C端卡位战
2025-12-06 12:28:46
智谱 GLM-4.6V 系列多模态 AI 大模型发布并开源,API 降价 50%
2025-12-08 20:45:30
Gartner 调查:仅 20% 客服支持主管表示因 AI 削减团队规模
2025-12-08 14:31:10
广东“十五五”规划建议:深入推进数字广东建设 加强人工智能治理
2025-12-08 08:14:45
端侧AI更安心!天玑9500强大双NPU:实现智能体验与隐私安全兼得
2025-12-08 11:25:48
570 文章
328431 浏览
24小时热文
更多
-
2025-12-08 20:48:29 -
2025-12-08 20:47:34 -
2025-12-08 20:45:30