中国科学技术大学MIRA实验室王杰教授团队提出了一种名为知识图谱驱动的监督微调(KG-SFT)的新框架,有效提升了大语言模型(LLMs)在特定领域的知识理解和推理能力。实验显示,该框架在低数据医学问答任务中,仅用5%的训练数据,英语场景下知识准确率提升14%,成功入选ICLR 2025。KG-SFT通过解析知识图谱中的推理路径,联合生成文本推理过程,包含Extractor提取知识关联、Generator生成流畅解释、Detector检测解释正确性三大组件。该方法不仅适用于低数据场景,还具备与现有数据增强方法结合的潜力,在多领域数据集中展现了广泛应用前景。
原文链接
本文链接:https://kx.umi6.com/article/16784.html
转载请注明文章出处
相关推荐
换一换
模型知识蒸馏新SOTA!告别传统散度蒸馏|腾讯优图&中科大出品
2024-12-03 16:18:53
研究揭示:大语言模型无法真正理解双关语
2025-11-24 18:08:37
中国科大新成果入选 ICLR 2025:特定领域仅用 5% 训练数据,知识准确率提升 14%
2025-04-07 13:58:54
AI无处不在的小应用,与行业发展的大困局
2025-09-22 16:01:16
Meta前高管警告:AI市场大概率会有一波调整
2025-10-16 20:00:09
从归因图到AI 的“生物学”:探索Claude3.5 Haiku 的内部机制“中”
2025-06-01 15:22:01
英伟达推出 NIM AI 护栏服务,防止模型遭用户“越狱”
2025-01-18 23:40:43
大语言模型会推理吗?
2024-11-13 11:33:40
研究:用诗歌就能让 AI 说违禁内容,成功率达 62%
2025-12-01 08:55:57
OpenAI 发布新模型 奥特曼:耐心时刻结束了
2024-09-16 01:58:25
专家:会聊天≠会思考,大语言模型造不出通用人工智能
2025-11-30 11:06:37
基准测试揭秘大模型“字数危机”:26个模型长文本生成普遍拉胯,最大输出长度过度宣传
2025-05-29 15:34:10
阿里蔡崇信最新发声!训练AI就像教育孩子 三四年就能赶超博士
2024-06-02 14:38:27
633 文章
444648 浏览
24小时热文
更多
-
2026-01-23 10:51:27 -
2026-01-23 10:50:21 -
2026-01-23 10:49:16