1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:成本不到150元!李飞飞等26分钟训出个推理模型,媲美o1和R1,秘诀:用蒸馏

衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

成本不到150元,训练出一个媲美DeepSeek-R1和OpenAI o1的推理模型?!这不是洋葱新闻,而是AI教母李飞飞、斯坦福大学、华盛顿大学、艾伦人工智能实验室等联合推出的最新成果:s1。

在数学和编程能力评测中,s1的表现与DeepSeek-R1和o1相当。团队仅用16个英伟达H100,训练耗时26分钟。据TechCrunch,训练成本不到50美元,约364.61元人民币;模型作者称,训练s1所需计算资源约20美元,约145.844元人民币。

秘诀在于“蒸馏”。团队以阿里通义的Qwen2.5-32B-Instruct为基础,通过蒸馏谷歌DeepMind的Gemini 2.0 Flash Thinking实验版,最终得到s1模型。训练中,团队创建了包含1000个精选问题的数据集s1K,每个问题附有答案及Gemini 2.0的思考过程。

项目论文《s1: Simple test-time scaling》已挂上arXiv,模型s1也在GitHub上开源,研究团队提供了训练数据和代码。

研究发现,Test-time Scaling有两种方式:顺序Scaling和并行Scaling。s1团队专注于顺序部分,因为它能更好地支持深入推理和迭代。团队提出了新的顺序Scaling方法和对应的Benchmark,并引入“budget forcing”策略,强制设定思考token数量上限和下限,从而优化模型性能。

评测显示,采用budget forcing的s1-32B在MATH500上得分93.0,超过o1-mini,媲美o1和DeepSeek-R1。然而,过度抑制思考会引发死循环,导致性能提升趋于平缓。

此外,s1-32B仅用1000个样本训练,其在AIME24上的成绩接近Gemini 2.0 Thinking,成为样本效率最高的开源推理模型。

期待大模型技术更精彩的2025年!

原文链接
本文链接:https://kx.umi6.com/article/12762.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
AI慢思考蒸馏进快思考,Llama2升至GPT4水平,不写过程也能做对题
2024-07-12 13:03:40
大模型训练成本飙升,千亿模型将亮相
2024-07-09 12:20:46
省钱也是技术活:解密DeepSeek的极致压榨术
2025-01-23 16:22:07
网易有道推出轻量级推理模型“子曰-o1”,更小规模实现更强推理效果
2025-01-22 12:54:57
GPT-5研发一年半进度堪忧,每轮5亿美金训练成本打水漂
2024-12-24 15:38:27
OpenAI发布o3,更强也更贵了,仨月更新一代只为证明AGI还有戏
2024-12-23 16:59:55
阿里自研“深度思考”推理模型已上线夸克 AI 搜索,后续将有更强模型上线
2025-03-01 15:00:52
性能比肩 Gemini-2.5 pro、o4-mini:阿里通义千问 Qwen 3 推理模型超级进化,现已开源
2025-07-26 00:31:49
揭秘:OpenAI是如何发展出推理模型的?
2025-08-04 18:05:57
新“SOTA”推理模型避战Qwen和R1?欧版OpenAI被喷麻了
2025-06-11 15:12:46
OpenAI宣称DeepSeek违规“蒸馏”,但没有给出证据
2025-01-30 10:25:54
直逼 DeepSeek-R1-32B,UC 伯克利等开源全新 SOTA 推理模型 OpenThinker-32B
2025-02-13 17:19:50
阿里Qwen团队发布新推模型QwQ 会展示完整的思维链
2025-02-25 12:56:25
24小时热文
更多
扫一扫体验小程序