1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
2025年10月11日,Thinking Machines发布论文《LoRA Without Regret》,探讨低秩适配(LoRA)在特定条件下媲美全参数微调(FullFT)的性能。研究表明,当LoRA应用于网络所有层(尤其是MLP/MoE层)且训练参数量充足时,其表现与FullFT相当。实验发现,LoRA的学习率通常是FullFT的10倍,大批量训练下容忍度较低。此外,在强化学习场景中,即使低秩LoRA也能达到FullFT的效果。研究基于Tulu3、OpenThoughts3及MATH等数据集,覆盖监督学习和策略梯度算法。此成果推动LoRA在定制化场景中的应用,同时为机器学习优化提供新视角。
智慧轨迹
10-11 09:28:41
LoRA
全参数微调
机器学习
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序