1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:Llama版o1来了,来自上海AI Lab,强化学习代码已开源,基于AlphaGo Zero范式

正文: 复刻OpenAI o1推理大模型,开源界迎来最新进展:LLaMA版o1项目刚由上海AI Lab团队发布。该项目简介中明确提到,使用了蒙特卡洛树搜索、Self-Play强化学习、PPO算法及AlphaGo Zero的双重策略范式(先验策略+价值评估)。

2024年6月,在o1发布前,团队就开始探索蒙特卡洛树搜索以提升大模型的数学能力,积累了一定的关注。此次开源代码在开发者社区引起热议。OpenAI o1系列发布后,团队升级算法,专注于数学奥赛问题,作为OpenAI草莓项目的开源版本。

10月初,团队上传新论文,提出成对优化方法(不直接给出绝对分数,而是比较两个答案的相对优劣),以提升Llama模型在数学奥赛中的表现。在AIME2024基准测试中,原版LLaMA-3.1-8B-Instruct做对2题,优化后做对8题,超过除o1-preview和o1-mini外的其他商业闭源方案。

10月底,团队基于AlphaGo Zero架构,复刻OpenAI o1取得重大进展:模型在学习过程中通过与搜索树交互获得高级思维能力,且无需人工标注。不到一周时间,项目即开源。

目前开源内容包括预训练数据集、预训练模型及强化学习训练代码。OpenLongCoT-Pretrain数据集包含10万+条长思维链数据,每条数据包含完整数学问题推理过程、思考内容及评分结果。在此数据集继续预训练后,模型可读取和输出类似o1的长思维链过程。

预训练代码暂未发布,目前推荐使用LLaMaFactory代替。尽管项目名为LLaMA-O1,但预训练模型基于谷歌Gemma 2。预训练模型基础上,可继续进行强化学习训练,具体步骤为:使用蒙特卡洛树搜索进行自我对弈以生成经验,经验存储于优先经验回放缓冲区中,再从缓冲区采样批次数据进行训练,更新模型参数和经验优先级。

训练代码中使用的关键技术点包括:LoRA进行参数高效微调、PPO算法作为策略优化方法、GAE算法用于计算优势函数、优先经验回放提高训练效率。LLaMA-O1代码发布在名为SimpleBerry的GitHub账号下,相关信息较为神秘。

此外,O1-Journey是另一公开进展的o1复刻项目,由上海交大团队负责。团队在10月初发布第一份进展报告,介绍创新Journey Learning范式及首个成功整合搜索和学习的数学推理模型。团队主要由上交大大三、大四本科生及GAIR实验室一年级博士生组成,指导教师包括上交大副教授刘鹏飞等。

原文链接
本文链接:https://kx.umi6.com/article/8329.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
阿里云通义千问开源 Qwen3-VL-30B-A3B 模型:智能体任务等领域媲美 GPT-5-Mini
2025-10-04 14:01:20
Nature封面文章: DeepSeek-R1通过强化学习激励的LLM推理
2025-09-18 08:48:39
腾讯混元OCR模型宣布开源
2025-11-25 15:00:37
上交博士最新思考:仅用两个问题讲清强化学习
2025-11-10 18:29:12
亚马逊开建AGI实验室,一号位也是华人
2025-09-22 09:54:37
上传一张图、主演任何视频,“性能最强动作生成模型”阿里通义万相 Wan2.2-Animate 开源
2025-09-19 15:14:57
开源Agent模型榜第一名,现在是阿里通义DeepResearch
2025-09-18 15:54:31
智谱GLM-4.7-Flash正式发布并开源
2026-01-20 08:45:53
美团视频生成模型正式发布并开源
2025-10-27 11:00:45
真如摄影、细至发丝!阿里开源新一代图像生成模型Qwen-Image
2025-12-31 21:40:29
DeepSeek首登《自然》封面:中国大模型创造新历史,做了OpenAI不敢做的事
2025-09-18 16:58:59
DeepSeekV3.2技术报告还是老外看得细
2025-12-04 09:09:55
奥尔特曼:感受不到 GPT-5 变强,是因为你还不够「专业」
2025-10-05 20:24:55
24小时热文
更多
扫一扫体验小程序