1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

手术刀式去噪突破LLM能力上限,模型性能提升7.2% | 中科院&阿里

中科院计算所与阿里Qwen团队联合提出RefineX框架,通过程序化编辑任务实现大规模、精准预训练数据精炼。其核心是将专家优化结果蒸馏为基于删除操作的极简程序,高效可靠地优化语料,同时保留原始文本多样性和自然性。

预训练数据质量直接影响大模型的知识深度与推理能力,但互联网数据常受广告、乱码等噪声污染,传统方法如规则过滤和端到端重写各有局限:前者只能粗筛文档,后者成本高且易引入模型偏好。例如,“Climate change impacts the environment”可能被篡改为“Climate change impacts ecosystems”,改变关键术语。

RefineX创新性采用两阶段蒸馏流程:首先由专家模型生成高质量精炼文本,再通过最小编辑距离提取可靠删除操作,转化为预定义函数集训练紧凑模型。这种方法仅保留“删行、删字符、保留全部”操作,避免新增内容或过度修改,保护原始文本本质。

实验表明,用RefineX净化后的20B token数据训练750M模型,在常识推理、科学问答等10项任务中平均得分达44.7,较原始数据提升7.2%,比现有最佳方法Prox-C高出2.6%。此外,10B净化token的表现优于20B传统过滤数据,显著提高数据效率。

在文本质量层面,RefineX对低质内容改善率达42.2%,且严格保持“零新增词汇”,杜绝语义篡改风险。相比端到端方案每千token新增15个外部词汇,RefineX更安全可靠。

RefineX提供了一种高效的大规模数据细化范式,以最小干预剥离噪声,让知识原初脉络自由呼吸。

arxiv: https://arxiv.org/abs/2507.03253
huggingface: https://huggingface.co/papers/2507.03253
github: https://github.com/byronBBL/RefineX

原文链接
本文链接:https://kx.umi6.com/article/22114.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
手术刀式去噪突破LLM能力上限,从头预训练模型下游任务平均提高7.2% | 中科院&阿里
2025-07-21 16:18:51
超800名科技领袖联合呼吁:停止研发超级智能
2025-10-22 18:51:33
阿里国际AI翻译模型Marco霸榜WMT机器翻译大赛最难赛道,拿下六项冠军
2025-10-23 15:07:52
LiblibAI完成1.3亿美元B轮融资 为中国AI应用今年最大融资
2025-10-22 22:54:13
多名用户状告美国联邦贸易委员会,称 ChatGPT 给自己造成严重心理伤害
2025-10-23 08:58:31
把“豆包”装进AI超级框 阿里夸克“C计划”首个成果曝光!
2025-10-23 13:05:54
智谱运气是差一点点,视觉Token研究又和DeepSeek撞车了
2025-10-23 15:07:10
两部门:启动2025年度智能制造系统解决方案“揭榜挂帅”项目申报工作
2025-10-22 16:50:23
阿里夸克AI眼镜24日开启预售 3699元起
2025-10-23 19:13:38
阿里巴巴将开启夸克AI眼镜预售 推动人工智能应用商业化
2025-10-23 13:08:00
亚马逊澄清“用机器人取代 60 万工人岗位”:只是降本增效,不和人类抢工作
2025-10-23 10:04:43
放开成人内容,OpenAI是为了提升性能?
2025-10-22 17:49:49
美光出样 192GB SOCAMM2 内存模组:容量提升 50%,能效提升 20+%
2025-10-23 15:09:26
24小时热文
更多
扫一扫体验小程序