标题:模型知识蒸馏新SOTA!告别传统散度蒸馏|腾讯优图&中科大出品
用大模型“蒸馏”小模型有了新方法,该方法不仅能提高小模型性能,还能在不同类型和架构的大语言模型(LLMs)上达到新的SOTA。这项技术来自中科大和腾讯优图实验室,使用基于Sinkhorn距离的知识蒸馏方法,有效解决了传统散度度量的局限性。
现有知识蒸馏方法如KL散度、RKL散度和JS散度,在教师和学生模型输出差异较大时效果不佳。KL散度会导致学生模型输出过于平滑,RKL散度引起模式塌陷,JS散度则低估稀有事件的概率。相比之下,基于Sinkhorn距离的新方法更准确地衡量和缩小教师与学生模型间的差异,提升了学生模型性能。
研究还提出了一种基于批量的重构方法,以捕捉高维空间中样本分布的几何复杂性。通过在GLUE和SuperGLUE两个自然语言处理测试集上的测试,新方法在编码器、编码器-解码器及解码器等不同架构的LLMs上均优于现有最先进方法。
Sinkhorn距离作为散度度量,解决了传统散度度量的局限性,避免了计算Wasserstein距离的负担。通过批量重构,该方法在优化过程中实现了更有效的整体距离最小化。此外,SinKD方法还能应用于回归任务和独热标签微调,进一步拓展了其应用范围。
实验结果显示,SinKD方法在大部分任务上均优于基线和现有SOTA方法,尤其在生成式大语言模型和计算机视觉领域的深度网络中表现出色。这些结果表明,SinKD方法在多种任务和模型架构中具有广泛的应用潜力。
原文链接
本文链接:https://kx.umi6.com/article/9609.html
转载请注明文章出处
相关推荐
换一换
科学家发现多数大语言模型测试标准存在缺陷,无法客观给出评分
2025-11-08 21:59:46
拒绝“熵崩塌”和“熵爆炸”!这项研究让大模型推理成绩飙升
2025-10-13 18:02:32
从蛰伏到王炸,RL启示录
2025-03-25 19:11:14
阿里蔡崇信最新发声!训练AI就像教育孩子 三四年就能赶超博士
2024-06-02 14:38:27
Agent是“新瓶装旧酒”,氛围编码不值得尝试?
2025-05-08 14:32:22
嚯!大语言扩散模型来了,何必只预测下一个token | 人大高瓴&蚂蚁
2025-02-18 13:14:03
压缩算法为大语言模型“瘦身”
2024-11-22 08:57:50
AI无处不在的小应用,与行业发展的大困局
2025-09-22 16:01:16
专家:会聊天≠会思考,大语言模型造不出通用人工智能
2025-11-30 11:06:37
史上最严中文真实性评估:OpenAI o1第1豆包第2,其它全部不及格
2024-11-21 14:34:25
研究:用诗歌就能让 AI 说违禁内容,成功率达 62%
2025-12-01 08:55:57
“学术剽窃”定义正被AI模糊,我们该如何应对?
2024-08-01 21:09:52
大模型来了,你要裁员吗?
2024-07-12 08:41:18
667 文章
376222 浏览
24小时热文
更多
-
2025-12-08 20:48:29 -
2025-12-08 20:47:34 -
2025-12-08 20:45:30