标题:模型知识蒸馏新SOTA!告别传统散度蒸馏|腾讯优图&中科大出品
用大模型“蒸馏”小模型有了新方法,该方法不仅能提高小模型性能,还能在不同类型和架构的大语言模型(LLMs)上达到新的SOTA。这项技术来自中科大和腾讯优图实验室,使用基于Sinkhorn距离的知识蒸馏方法,有效解决了传统散度度量的局限性。
现有知识蒸馏方法如KL散度、RKL散度和JS散度,在教师和学生模型输出差异较大时效果不佳。KL散度会导致学生模型输出过于平滑,RKL散度引起模式塌陷,JS散度则低估稀有事件的概率。相比之下,基于Sinkhorn距离的新方法更准确地衡量和缩小教师与学生模型间的差异,提升了学生模型性能。
研究还提出了一种基于批量的重构方法,以捕捉高维空间中样本分布的几何复杂性。通过在GLUE和SuperGLUE两个自然语言处理测试集上的测试,新方法在编码器、编码器-解码器及解码器等不同架构的LLMs上均优于现有最先进方法。
Sinkhorn距离作为散度度量,解决了传统散度度量的局限性,避免了计算Wasserstein距离的负担。通过批量重构,该方法在优化过程中实现了更有效的整体距离最小化。此外,SinKD方法还能应用于回归任务和独热标签微调,进一步拓展了其应用范围。
实验结果显示,SinKD方法在大部分任务上均优于基线和现有SOTA方法,尤其在生成式大语言模型和计算机视觉领域的深度网络中表现出色。这些结果表明,SinKD方法在多种任务和模型架构中具有广泛的应用潜力。
原文链接
本文链接:https://kx.umi6.com/article/9609.html
转载请注明文章出处
相关推荐
换一换
Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造
2025-06-01 13:19:53
腾讯公布大语言模型训练专利 可提高模型准确性
2025-02-08 14:29:56
短视频刷多了AI也会变蠢!“年度最令人不安的论文”
2025-11-16 14:35:46
大语言模型会推理吗?
2024-11-13 11:33:40
苹果新研究:AI 不听录音,凭文本描述能零样本识别洗碗等 12 种活动
2025-11-22 08:06:08
王兴:美团将继续加大投资开发大语言模型,确保在中国拥有最佳团队
2025-05-26 21:51:58
上海AI Lab胡侠:KV Cache压缩之后,可让价格2万美金的GPU发挥出20万美金的价值 | GAIR 2025
2026-01-08 11:06:36
Meta前高管警告:AI市场大概率会有一波调整
2025-10-16 20:00:09
LangChain《2024人工智能全景报告出炉》:OpenAI依旧是龙头 开源模型采用率上升
2024-12-24 14:35:00
UC 伯克利等最新研究:大语言模型就是比人类啰嗦,“提问的艺术”仍难参透
2025-01-30 20:35:59
攻略在手,轻松玩转 DeepSeek
2025-02-08 21:33:12
荣耀 MagicOS 9.0 升级支持 30 亿参数端侧大语言模型:功耗下降 80%,内存占用减少 1.6GB
2024-10-23 16:40:26
deepseek关联公司公布大语言模型部署方法专利
2025-08-01 14:04:10
728 文章
467606 浏览
24小时热文
更多
-
2026-01-23 21:15:09 -
2026-01-23 21:14:01 -
2026-01-23 20:15:45