腾讯AI Lab与香港中文大学合作,提出“无监督前缀微调”(UPFT)技术,大幅提升大型语言模型推理效率。UPFT仅需关注模型输出的前8至32个词元,无需完整推理过程。研究显示,不同推理路径的初期步骤高度相似,UPFT利用这一特性,减少95%的tokens训练,显著降低时间和内存需求。UPFT在GSM8K、MATH500等多个推理基准测试中表现优异,尤其在复杂推理任务中效果显著。
原文链接
本文链接:https://kx.umi6.com/article/14606.html
转载请注明文章出处
相关推荐
.png)
换一换
华为CloudMatrix重磅论文披露AI数据中心新范式,推理效率超 H100
2025-06-29 14:32:55
阿里云百炼上线全尺寸 DeepSeek 模型,1 元最高可享受 200 万 tokens
2025-02-09 15:47:21
腾讯携手创新“无监督前缀微调”技术:训练 tokens 最多减少 95%,提升 AI 推理效率
2025-03-02 15:41:26
443 文章
64964 浏览
24小时热文
更多

-
2025-07-19 20:57:00
-
2025-07-19 18:55:37
-
2025-07-19 17:56:25