1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

苹果发现模型蒸馏Scaling Law!教师模型并非越强越好

克雷西 发自 凹非寺 | 量子位 | 公众号 QbitAI

苹果最新研究揭示了大模型蒸馏的Scaling Law,即学生模型和教师模型能力间的幂律关系。研究发现,教师模型并非越强越好,过强的教师模型可能导致学生模型性能恶化。

研究显示,学生模型的损失随教师模型损失降低整体呈下降趋势。但当教师模型能力远超学生模型时,继续提升教师性能的边际效用递减,学生模型性能可能反而变差。这表明存在一个转折点,两侧分别呈现不同形式的幂律关系。

基于这些发现,作者针对模型蒸馏过程中的计算资源分配提出建议,帮助根据学生模型规模、可用资源等因素选择更有效的分配方式。例如,当总预算较小时,大部分资源应分配给教师模型训练;当预算较大时,资源应在三部分间平均分配。

此外,如果教师模型需要从头训练且仅用于蒸馏单个学生模型,直接用所有资源监督训练学生模型,效果可能更好。

原文链接
本文链接:https://kx.umi6.com/article/13397.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据
2024-06-15 13:49:34
Scaling Law首次在自动驾驶赛道被验证!小鹏汽车CVPR演讲详解
2025-06-16 14:08:23
硅谷掀桌!DeepSeek遭OpenAI和Anthropic围剿,美国网友都看不下去了
2025-01-30 13:28:20
24小时热文
更多
扫一扫体验小程序