苹果发现模型蒸馏Scaling Law!教师模型并非越强越好
克雷西 发自 凹非寺 | 量子位 | 公众号 QbitAI
苹果最新研究揭示了大模型蒸馏的Scaling Law,即学生模型和教师模型能力间的幂律关系。研究发现,教师模型并非越强越好,过强的教师模型可能导致学生模型性能恶化。
研究显示,学生模型的损失随教师模型损失降低整体呈下降趋势。但当教师模型能力远超学生模型时,继续提升教师性能的边际效用递减,学生模型性能可能反而变差。这表明存在一个转折点,两侧分别呈现不同形式的幂律关系。
基于这些发现,作者针对模型蒸馏过程中的计算资源分配提出建议,帮助根据学生模型规模、可用资源等因素选择更有效的分配方式。例如,当总预算较小时,大部分资源应分配给教师模型训练;当预算较大时,资源应在三部分间平均分配。
此外,如果教师模型需要从头训练且仅用于蒸馏单个学生模型,直接用所有资源监督训练学生模型,效果可能更好。
原文链接
本文链接:https://kx.umi6.com/article/13397.html
转载请注明文章出处
相关推荐
换一换
四位大模型创业者聊 AGI、Scaling Law 和价格战
2024-06-16 10:11:05
DeepSeek-R1 模型发布,性能对标 OpenAI o1 正式版
2025-01-20 22:24:20
华泰证券:长期看好AI算力需求的持续增长
2025-07-28 08:07:00
Scaling Law遭遇瓶颈,OpenAI被曝押注智能体“Operator”
2024-11-18 11:19:38
阶跃星辰CEO姜大昕:Scaling Law中短期内依然处于陡峭曲线
2024-07-06 19:07:02
百度最早发现大模型中的scaling law?不用怀疑,对中国AI要有自信
2025-01-02 11:16:19
硅谷掀桌!DeepSeek遭OpenAI和Anthropic围剿,美国网友都看不下去了
2025-01-30 13:28:20
Scaling Law不适用于投资行业?朱啸虎在2024WAIC再度“语出惊人”
2024-07-08 08:32:08
OpenAI大改下代大模型方向,scaling law撞墙?AI社区炸锅了
2024-11-13 14:37:38
GPT-5被曝不及预期,OpenAI员工:没什么科学突破了,只需要工程
2024-11-11 16:48:08
Hinton揭秘Ilya成长历程:Scaling Law是他学生时代就有的直觉
2024-05-27 10:09:54
MiniMax海螺视频团队首次开源:Tokenizer也具备明确的Scaling Law
2025-12-22 13:45:27
又到年底,那些AGI预言“实现”到哪一步了?
2024-11-26 08:24:17
641 文章
415924 浏览
24小时热文
更多
-
2026-01-23 08:40:41 -
2026-01-23 06:34:26 -
2026-01-23 00:20:44