苹果发现模型蒸馏Scaling Law!教师模型并非越强越好
克雷西 发自 凹非寺 | 量子位 | 公众号 QbitAI
苹果最新研究揭示了大模型蒸馏的Scaling Law,即学生模型和教师模型能力间的幂律关系。研究发现,教师模型并非越强越好,过强的教师模型可能导致学生模型性能恶化。
研究显示,学生模型的损失随教师模型损失降低整体呈下降趋势。但当教师模型能力远超学生模型时,继续提升教师性能的边际效用递减,学生模型性能可能反而变差。这表明存在一个转折点,两侧分别呈现不同形式的幂律关系。
基于这些发现,作者针对模型蒸馏过程中的计算资源分配提出建议,帮助根据学生模型规模、可用资源等因素选择更有效的分配方式。例如,当总预算较小时,大部分资源应分配给教师模型训练;当预算较大时,资源应在三部分间平均分配。
此外,如果教师模型需要从头训练且仅用于蒸馏单个学生模型,直接用所有资源监督训练学生模型,效果可能更好。
原文链接
本文链接:https://kx.umi6.com/article/13397.html
转载请注明文章出处
相关推荐
换一换
Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据
2024-06-15 13:49:34
对话智谱CEO张鹏:大家对大模型期待过高,Scaling Law还有很大增长空间
2024-11-29 13:53:52
Scaling Law首次在自动驾驶赛道被验证!小鹏汽车CVPR演讲详解
2025-06-16 14:08:23
千寻智能解浚源:具身智能的 Scaling Law 已跨过起跑线丨具身先锋十人谈
2025-04-30 20:23:36
微软CTO:AI大模型的“Scaling Law”还能走多远?
2024-07-12 07:50:49
张宏江消除“Scaling Law放缓”恐惧,直言未来将迎来“自主智能”的世界
2024-12-07 17:49:03
Scaling Law不适用于投资行业?朱啸虎在2024WAIC再度“语出惊人”
2024-07-08 08:32:08
Scaling Law百度最早提出!OpenAI/Claude受它启发,致谢中有Ilya
2024-11-28 09:19:46
现在的大模型现状,就是豪赌
2025-01-24 08:35:12
智源王仲远:多模态大模型对产业更加重要,得多模态大模型得天下
2024-12-31 12:40:05
Qwen3家族训练秘籍公开:思考/非思考融进一个模型,大模型蒸馏带动小模型
2025-05-14 16:17:10
2025年AI十大趋势预测
2024-12-27 08:52:59
Scaling Law只适用于AI大模型,不适用于风投?
2024-07-08 14:04:49
599 文章
347548 浏览
24小时热文
更多
-
2025-12-08 09:22:21 -
2025-12-08 09:21:09 -
2025-12-08 09:20:01