标题:免训练大模型知识编辑,吸收新数据更高效|EMNLP’24
让大模型能快速、准确、高效地吸收新知识!
EMNLP 2024收录的一项新研究提出了一种检索增强的连续提示学习新方法,提高知识终身学习的编辑和推理效率。此方法旨在纠正大语言模型中的过时或错误知识,而不需昂贵的再训练过程。
此前工作多集中在单次或批量编辑,但由于灾难性遗忘和模型性能下降,这些方法在终身编辑场景中表现不佳。基于检索的方法虽有所改善,但仍面临知识整合缓慢的问题。
最新方法名为RECIPE,它将知识描述转化为简短且信息丰富的连续提示的token表示,作为LLM输入查询嵌入的前缀,优化知识编辑过程。此外,RECIPE引入了知识哨兵机制,动态判断检索库是否包含相关知识。
RECIPE通过联合训练检索器和提示编码器,确保知识编辑的可靠性、通用性和局部性。实验结果显示,RECIPE在多个权威模型和数据集上的表现优于其他方法。
这项研究由阿里安全内容安全团队与华东师范大学计算机科学与技术学院及阿里云计算平台合作完成。
研究背景指出,大语言模型如ChatGPT在保持事实准确性和逻辑一致性方面面临挑战。编辑模型以纠正不准确之处,而不进行大规模再训练,是亟待解决的问题。
模型方法部分介绍了任务定义和评估属性,RECIPE通过构造和更新知识检索仓库、基于知识哨兵的动态提示检索、以及动态编辑模型的推理,实现了高效编辑。
实验结果表明,RECIPE在单次和终身编辑场景中均表现出色,尤其是在通用能力和编辑效率方面。与其他方法相比,RECIPE不仅减少了编辑时间,还保持了模型的原始推理速度。
原文链接
本文链接:https://kx.umi6.com/article/8000.html
转载请注明文章出处
相关推荐
换一换
很多成功人士容易犯的一个错误 !周鸿祎点破了
2025-08-06 16:35:55
AI时代,普通人的9个升维认知
2025-03-04 16:23:20
思科全球创新主管迪德里希:AI 时代学生应该接触哲学和伦理学等人文学科
2025-11-10 15:19:36
免训练大模型知识编辑,吸收新数据更高效|EMNLP’24
2024-10-29 14:29:55
埃斯顿(2715.HK)今日登陆港交所 国产机器人龙头开启A+H新征程
2026-03-09 09:27:00
黑马图像模型被Nano Banana技术负责人点赞!15人华人小队,DDIM之父&CVPR最佳论文作者带队
2026-03-06 23:41:48
腾讯版“小龙虾”WorkBuddy正式上线
2026-03-09 15:52:31
江苏有线等成立科技公司 经营范围含集成电路芯片及产品制造等业务
2026-03-10 10:02:35
全国人大代表杭迎伟:打造水务全产业链机器人矩阵
2026-03-06 19:29:11
美以伊冲突社媒充斥大量AI图像 画面真假难辨
2026-03-06 20:34:53
2.2亿人正和AI谈恋爱 学者:AI伴侣对孤独或受伤的人有好处
2026-03-08 21:41:26
央视点赞千问APP,“AI办事”让人工智能走进日常生活
2026-03-07 16:42:54
AI浏览器何时才能安全?
2026-03-07 00:49:29
658 文章
488037 浏览
24小时热文
更多
-
2026-03-10 10:03:26 -
2026-03-10 10:02:35 -
2026-03-10 09:02:22