1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:Llama版o1来了,来自上海AI Lab,强化学习代码已开源,基于AlphaGo Zero范式

正文: 复刻OpenAI o1推理大模型,开源界迎来最新进展:LLaMA版o1项目刚由上海AI Lab团队发布。该项目简介中明确提到,使用了蒙特卡洛树搜索、Self-Play强化学习、PPO算法及AlphaGo Zero的双重策略范式(先验策略+价值评估)。

2024年6月,在o1发布前,团队就开始探索蒙特卡洛树搜索以提升大模型的数学能力,积累了一定的关注。此次开源代码在开发者社区引起热议。OpenAI o1系列发布后,团队升级算法,专注于数学奥赛问题,作为OpenAI草莓项目的开源版本。

10月初,团队上传新论文,提出成对优化方法(不直接给出绝对分数,而是比较两个答案的相对优劣),以提升Llama模型在数学奥赛中的表现。在AIME2024基准测试中,原版LLaMA-3.1-8B-Instruct做对2题,优化后做对8题,超过除o1-preview和o1-mini外的其他商业闭源方案。

10月底,团队基于AlphaGo Zero架构,复刻OpenAI o1取得重大进展:模型在学习过程中通过与搜索树交互获得高级思维能力,且无需人工标注。不到一周时间,项目即开源。

目前开源内容包括预训练数据集、预训练模型及强化学习训练代码。OpenLongCoT-Pretrain数据集包含10万+条长思维链数据,每条数据包含完整数学问题推理过程、思考内容及评分结果。在此数据集继续预训练后,模型可读取和输出类似o1的长思维链过程。

预训练代码暂未发布,目前推荐使用LLaMaFactory代替。尽管项目名为LLaMA-O1,但预训练模型基于谷歌Gemma 2。预训练模型基础上,可继续进行强化学习训练,具体步骤为:使用蒙特卡洛树搜索进行自我对弈以生成经验,经验存储于优先经验回放缓冲区中,再从缓冲区采样批次数据进行训练,更新模型参数和经验优先级。

训练代码中使用的关键技术点包括:LoRA进行参数高效微调、PPO算法作为策略优化方法、GAE算法用于计算优势函数、优先经验回放提高训练效率。LLaMA-O1代码发布在名为SimpleBerry的GitHub账号下,相关信息较为神秘。

此外,O1-Journey是另一公开进展的o1复刻项目,由上海交大团队负责。团队在10月初发布第一份进展报告,介绍创新Journey Learning范式及首个成功整合搜索和学习的数学推理模型。团队主要由上交大大三、大四本科生及GAIR实验室一年级博士生组成,指导教师包括上交大副教授刘鹏飞等。

原文链接
本文链接:https://kx.umi6.com/article/8329.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
阿里发布三款中型千问3.5新模型,每百万Token低至0.2元
2026-02-25 15:25:53
AI“以小博大”新标杆:三星开源 TRM 模型,700 万参数、特定任务性能媲美 Deepseek R1 等万倍大模型
2025-10-11 10:06:15
混元OCR模型核心技术揭秘:统一框架、真端到端
2025-11-30 11:05:21
抖音&LV-NUS开源多模态新模,以小博大刷新SOTA,8B推理比肩GPT-4o
2025-10-14 12:13:47
上交博士最新思考:仅用两个问题讲清强化学习
2025-11-10 18:29:12
汪军对话 Rich Sutton:大模型在一定程度上分散了我们对智能理解的注意力
2025-09-28 11:53:51
中金:2026年大模型在强化学习、模型记忆、上下文工程等方面将取得更多突破
2026-02-05 08:39:59
全新合成框架SOTA:强化学习当引擎,任务合成当燃料,蚂蚁港大联合出品
2025-10-01 18:47:16
马斯克亲自点名Karpathy迎战Grok 5!别神话LLM,AGI还要等十年
2025-10-20 15:08:42
腾讯混元推出并开源“混元图像 3.0”,官方称效果能对标业界头部闭源模型
2025-09-28 12:53:03
亚马逊开建AGI实验室,一号位也是华人
2025-09-22 09:54:37
Thinking Machine新研究刷屏!结合RL+微调,小模型训练更具性价比
2025-10-28 10:41:47
阿里千问开源Qwen3-Coder-Next模型
2026-02-04 08:31:48
24小时热文
更多
扫一扫体验小程序