1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

手术刀式去噪突破LLM能力上限,模型性能提升7.2% | 中科院&阿里

中科院计算所与阿里Qwen团队联合提出RefineX框架,通过程序化编辑任务实现大规模、精准预训练数据精炼。其核心是将专家优化结果蒸馏为基于删除操作的极简程序,高效可靠地优化语料,同时保留原始文本多样性和自然性。

预训练数据质量直接影响大模型的知识深度与推理能力,但互联网数据常受广告、乱码等噪声污染,传统方法如规则过滤和端到端重写各有局限:前者只能粗筛文档,后者成本高且易引入模型偏好。例如,“Climate change impacts the environment”可能被篡改为“Climate change impacts ecosystems”,改变关键术语。

RefineX创新性采用两阶段蒸馏流程:首先由专家模型生成高质量精炼文本,再通过最小编辑距离提取可靠删除操作,转化为预定义函数集训练紧凑模型。这种方法仅保留“删行、删字符、保留全部”操作,避免新增内容或过度修改,保护原始文本本质。

实验表明,用RefineX净化后的20B token数据训练750M模型,在常识推理、科学问答等10项任务中平均得分达44.7,较原始数据提升7.2%,比现有最佳方法Prox-C高出2.6%。此外,10B净化token的表现优于20B传统过滤数据,显著提高数据效率。

在文本质量层面,RefineX对低质内容改善率达42.2%,且严格保持“零新增词汇”,杜绝语义篡改风险。相比端到端方案每千token新增15个外部词汇,RefineX更安全可靠。

RefineX提供了一种高效的大规模数据细化范式,以最小干预剥离噪声,让知识原初脉络自由呼吸。

arxiv: https://arxiv.org/abs/2507.03253
huggingface: https://huggingface.co/papers/2507.03253
github: https://github.com/byronBBL/RefineX

原文链接
本文链接:https://kx.umi6.com/article/22114.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
手术刀式去噪突破LLM能力上限,从头预训练模型下游任务平均提高7.2% | 中科院&阿里
2025-07-21 16:18:51
OpenAI 明年杀入招聘市场,将帮助具备 AI 技能的人才找到工作
2025-09-05 16:21:28
消息称 DeepSeek 正开发更先进模型:具备 AI 智能体能力,剑指年底发布
2025-09-04 18:07:12
DeepSeek被曝开发AI智能体模型:能自主完成多步工作
2025-09-05 08:15:12
联想发布全球首款AI电脑支架:集成追踪、语音与手势控制
2025-09-05 15:21:36
华为AI模型运行专利公布
2025-09-05 15:25:04
Waymo将于今年秋季在圣何塞机场测试无人驾驶汽车
2025-09-05 09:16:13
GPT-4o 见AV 女优的次数比“您好”还多2.6倍,AI 正在被中文互联网疯狂污染
2025-09-06 12:37:21
报道称DeepSeek计划年底前发布AI智能体 公司暂无回应
2025-09-04 17:05:24
OpenAI今年预计通过ChatGPT实现近100亿美元收入
2025-09-06 10:33:35
新华三集团与重庆水务环境集团签订战略合作协议
2025-09-06 10:33:40
拜拜Claude!阿里最强万亿模型编程秒了Opus4,实测在此
2025-09-06 12:37:03
月之暗面 Kimi K2 宣布更新:上下文长度扩展至 256K,带来更快的 API
2025-09-05 12:17:23
24小时热文
更多
扫一扫体验小程序