中国科学技术大学MIRA实验室王杰教授团队提出了一种名为知识图谱驱动的监督微调(KG-SFT)的新框架,有效提升了大语言模型(LLMs)在特定领域的知识理解和推理能力。实验显示,该框架在低数据医学问答任务中,仅用5%的训练数据,英语场景下知识准确率提升14%,成功入选ICLR 2025。KG-SFT通过解析知识图谱中的推理路径,联合生成文本推理过程,包含Extractor提取知识关联、Generator生成流畅解释、Detector检测解释正确性三大组件。该方法不仅适用于低数据场景,还具备与现有数据增强方法结合的潜力,在多领域数据集中展现了广泛应用前景。
原文链接
本文链接:https://kx.umi6.com/article/16784.html
转载请注明文章出处
相关推荐
.png)
换一换
495篇参考文献!北交大清华等高校发布多语言大模型综述
2025-01-17 10:12:14
三星收购英国 Oxford Semantic Technologies 公司:让本地 AI 模拟人类方式处理复杂任务
2024-07-18 12:33:43
自诩无所不知的大模型,能否拯救笨手笨脚的机器人?
2025-05-06 09:49:31
431 文章
75320 浏览
24小时热文
更多

-
2025-07-21 11:21:54
-
2025-07-21 11:20:45
-
2025-07-21 11:19:36