标题:纯蒸馏模型 SOTA 突破!训练成本降低50倍,数据已开源
a-m-team 发布新论文,介绍下一代推理模型的小进展。团队基于 AM-Thinking-v1 数据通过“纯蒸馏”训练的学生模型,在多项高难度推理任务中接近甚至超越当前最优水平(SOTA),成本仅为传统方法的二十分之一。
论文《Not All Correct Answers Are Equal: Why Your Distillation Source Matters》探讨了蒸馏数据源的重要性。研究显示,相比 Qwen3-235B 和 DeepSeek-R1,AM-Thinking-v1 的蒸馏模型不仅表现更优,且损失曲线更低,展现了更高的数据质量。
AM-Thinking-v1 数据具备多样化的 token 长度分布和更低的困惑度(PPL=2.5),使其更适合训练推理模型。此外,该模型能根据任务难度生成适当的推理长度,展现更强的自适应能力。
a-m-team 开源了 AM-Thinking-v1 和 Qwen3-235B-A22B 的蒸馏数据集,每条数据包括标准化 prompt、推理链、任务分类及评分信息,为社区低成本构建强推理能力提供支持。团队认为,蒸馏数据选择已成为性能上限的关键因素。
这一成果打破了大模型创新停滞的现状,为开源社区提供了新的技术方向。
原文链接
本文链接:https://kx.umi6.com/article/19030.html
转载请注明文章出处
相关推荐
.png)
换一换
达摩院开源VideoLLaMA3:仅7B大小,视频理解拿下SOTA | 在线可玩
2025-02-14 12:34:39
美团发布高效推理模型 LongCat-Flash-Thinking,达到 SOTA 水平
2025-09-22 15:58:35
GPT-4o攻破ARC-AGI无法被挑战的神话,71%准确率成新SOTA
2024-06-20 14:13:43
Gitee AI 联合沐曦首发全套 DeepSeek R1 千问蒸馏模型,全免费体验
2025-02-03 17:13:53
1/15成本,实现AI水印新SOTA | 南洋理工大学&A*STAR
2025-05-31 13:06:45
分割/识别/解说一个模型搞定!3B参数刷新视觉理解SOTA,图像视频全适配
2025-06-14 20:40:35
月之暗面发布 Kimi k1.5 多模态思考模型,实现 SOTA 级多模态推理能力
2025-01-20 23:25:35
月之暗面发布k1.5多模态思考模型
2025-01-20 23:27:40
阶跃星辰发布端到端语音大模型 Step-Audio 2 mini,多个基准测试取得 SOTA 成绩
2025-09-01 15:21:09
杨植麟被梁文锋叫醒了!Kimi新模型发布即开源,1T参数全线SOTA
2025-07-12 13:50:53
Claude Opus 4.1火速发布!坐稳编程之王,官方:马上还有大更新
2025-08-06 11:26:58
开源Qwen一周连刷三冠,暴击闭源模型!基础模型推理编程均SOTA
2025-07-26 13:39:05
工业大模型的“难言之隐”,这些企业有方法
2024-11-14 15:16:55
552 文章
255223 浏览
24小时热文
更多

-
2025-10-23 21:15:29
-
2025-10-23 20:16:19
-
2025-10-23 20:15:12