苹果发现模型蒸馏Scaling Law!教师模型并非越强越好
克雷西 发自 凹非寺 | 量子位 | 公众号 QbitAI
苹果最新研究揭示了大模型蒸馏的Scaling Law,即学生模型和教师模型能力间的幂律关系。研究发现,教师模型并非越强越好,过强的教师模型可能导致学生模型性能恶化。
研究显示,学生模型的损失随教师模型损失降低整体呈下降趋势。但当教师模型能力远超学生模型时,继续提升教师性能的边际效用递减,学生模型性能可能反而变差。这表明存在一个转折点,两侧分别呈现不同形式的幂律关系。
基于这些发现,作者针对模型蒸馏过程中的计算资源分配提出建议,帮助根据学生模型规模、可用资源等因素选择更有效的分配方式。例如,当总预算较小时,大部分资源应分配给教师模型训练;当预算较大时,资源应在三部分间平均分配。
此外,如果教师模型需要从头训练且仅用于蒸馏单个学生模型,直接用所有资源监督训练学生模型,效果可能更好。
原文链接
本文链接:https://kx.umi6.com/article/13397.html
转载请注明文章出处
相关推荐
.png)
换一换
推荐场景Scaling Law来了!中科大&华为诺亚方舟联合推出
2025-03-31 15:35:17
现在的大模型现状,就是豪赌
2025-01-24 08:35:12
DeepSeek-R1 模型发布,性能对标 OpenAI o1 正式版
2025-01-20 22:24:20
对话智谱CEO张鹏:大家对大模型期待过高,Scaling Law还有很大增长空间
2024-11-29 13:53:52
华泰证券:长期看好AI算力需求的持续增长
2025-07-28 08:07:00
AI“规模暴力”真的失效了吗?
2024-11-19 13:45:24
张宏江消除“Scaling Law放缓”恐惧,直言未来将迎来“自主智能”的世界
2024-12-07 17:49:03
苹果发现模型蒸馏Scaling Law!教师模型并非越强越好
2025-02-14 16:41:33
百度最早发现大模型中的scaling law?不用怀疑,对中国AI要有自信
2025-01-02 11:16:19
视觉模型智能涌现后, Scaling Law 不会到头
2024-11-22 12:00:19
技术进展放缓,是普通人AI革命的开始
2024-12-25 13:03:33
Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据
2024-06-15 13:49:34
第一个被人类骗钱的AI傻了,近5万美元不翼而飞!
2024-12-03 16:24:52
494 文章
170905 浏览
24小时热文
更多

-
2025-09-06 16:37:17
-
2025-09-06 16:36:53
-
2025-09-06 16:36:08