1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

手术刀式去噪突破LLM能力上限,模型性能提升7.2% | 中科院&阿里

中科院计算所与阿里Qwen团队联合提出RefineX框架,通过程序化编辑任务实现大规模、精准预训练数据精炼。其核心是将专家优化结果蒸馏为基于删除操作的极简程序,高效可靠地优化语料,同时保留原始文本多样性和自然性。

预训练数据质量直接影响大模型的知识深度与推理能力,但互联网数据常受广告、乱码等噪声污染,传统方法如规则过滤和端到端重写各有局限:前者只能粗筛文档,后者成本高且易引入模型偏好。例如,“Climate change impacts the environment”可能被篡改为“Climate change impacts ecosystems”,改变关键术语。

RefineX创新性采用两阶段蒸馏流程:首先由专家模型生成高质量精炼文本,再通过最小编辑距离提取可靠删除操作,转化为预定义函数集训练紧凑模型。这种方法仅保留“删行、删字符、保留全部”操作,避免新增内容或过度修改,保护原始文本本质。

实验表明,用RefineX净化后的20B token数据训练750M模型,在常识推理、科学问答等10项任务中平均得分达44.7,较原始数据提升7.2%,比现有最佳方法Prox-C高出2.6%。此外,10B净化token的表现优于20B传统过滤数据,显著提高数据效率。

在文本质量层面,RefineX对低质内容改善率达42.2%,且严格保持“零新增词汇”,杜绝语义篡改风险。相比端到端方案每千token新增15个外部词汇,RefineX更安全可靠。

RefineX提供了一种高效的大规模数据细化范式,以最小干预剥离噪声,让知识原初脉络自由呼吸。

arxiv: https://arxiv.org/abs/2507.03253
huggingface: https://huggingface.co/papers/2507.03253
github: https://github.com/byronBBL/RefineX

原文链接
本文链接:https://kx.umi6.com/article/22114.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
手术刀式去噪突破LLM能力上限,从头预训练模型下游任务平均提高7.2% | 中科院&阿里
2025-07-21 16:18:51
谷歌憋了十年的大招,让英伟达好日子到头了?
2025-12-08 12:25:18
广西“十五五”规划建议:高标准建设中国—东盟国家人工智能应用合作中心
2025-12-07 10:23:39
西北首台量子计算机落地西安
2025-12-07 08:18:21
亚马逊CTO:开发者只要能进化绝不会被AI取代
2025-12-07 22:52:28
豆包手机助手:已下线操作银行、互联网支付类APP的能力
2025-12-06 18:44:32
戴尔科技集团 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案
2025-12-06 10:23:57
广西“十五五”规划建议:全力打造制造业十大现代化支柱产业
2025-12-07 10:27:01
中信证券:医疗健康产品销售线上化率有望迎来长足提升
2025-12-06 10:24:18
打工15年,被大厂裁4次了
2025-12-08 11:21:19
甘肃庆阳智算规模达10万P
2025-12-08 16:38:29
摩根大通CEO谈AI:使人们可以工作不那么辛苦 享受美好生活
2025-12-08 11:23:28
科创引领新经济 数智驱动新发展——2025东方财富私募风云际会论坛盛大召开
2025-12-08 15:32:36
24小时热文
更多
扫一扫体验小程序