中国科学技术大学MIRA实验室王杰教授团队提出了一种名为知识图谱驱动的监督微调(KG-SFT)的新框架,有效提升了大语言模型(LLMs)在特定领域的知识理解和推理能力。实验显示,该框架在低数据医学问答任务中,仅用5%的训练数据,英语场景下知识准确率提升14%,成功入选ICLR 2025。KG-SFT通过解析知识图谱中的推理路径,联合生成文本推理过程,包含Extractor提取知识关联、Generator生成流畅解释、Detector检测解释正确性三大组件。该方法不仅适用于低数据场景,还具备与现有数据增强方法结合的潜力,在多领域数据集中展现了广泛应用前景。
原文链接
本文链接:https://kx.umi6.com/article/16784.html
转载请注明文章出处
相关推荐
换一换
攻略在手,轻松玩转 DeepSeek
2025-02-08 21:33:12
上交大智能计算研究院论文:不只算对答案,大模型如何真正学会运筹建模丨ICLR 2026
2026-02-03 23:02:59
拒绝“熵崩塌”和“熵爆炸”!这项研究让大模型推理成绩飙升
2025-10-13 18:02:32
挑战强化学习后训练霸权!全新无监督方法仅需1条数据+10步优化
2025-06-01 13:22:14
鸿海首个大语言模型 FoxBrain 发布:具备推理能力,未来计划部分开源
2025-03-10 16:45:45
之江实验室薛贵荣:当AI开始做科研,我看到了大语言模型的天花板丨GAIR 2025
2025-12-31 17:32:07
AI模拟社会的“幕后”操控者是谁?
2025-01-21 14:39:42
Agent是“新瓶装旧酒”,氛围编码不值得尝试?
2025-05-08 14:32:22
DeepSeek之后,每一家公司都是Agent
2025-04-02 21:46:19
当 AI 下场炒 A 股,「推理」成了新的直觉
2025-10-28 12:51:59
AI竞技场,归根到底只是一门生意
2025-08-06 15:37:54
从蛰伏到王炸,RL启示录
2025-03-31 14:32:31
美国哥伦比亚大学研究:大语言模型正在变得越来越像人类大脑
2024-12-20 11:27:54
702 文章
586522 浏览
24小时热文
更多
-
2026-04-25 00:42:43 -
2026-04-24 23:43:31 -
2026-04-24 23:42:26