1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍

PettingLLMs团队 投稿
量子位 | 公众号 QbitAI

来自UCSD和英特尔的研究团队提出了一种通用化多智能体强化学习框架——PettingLLMs,首次实现了“群体强化”,显著提升了大语言模型(LLM)在多智能体协作中的表现。实验表明,在多个任务中,该框架可将性能提升最高达5.8倍。

研究背景

大语言模型驱动的多智能体系统已在医疗、编程、科研等领域展现出巨大潜力。然而,现有的强化学习框架(如GRPO算法)仅适用于单智能体训练,无法有效处理多智能体间的协作优化问题。核心难点在于,多智能体环境中的上下文(prompt)会因轮次和角色的不同而变化,导致传统方法难以公平评估各智能体的表现。

方法概述

研究团队提出了一种基于树状采样的贪心搜索方法,每轮为每个智能体生成多个分支,并选择奖励最高的分支进行下一轮扩展。这种方法平衡了探索与利用,同时通过设计专属奖励函数,兼顾了个体能力和全局协作的进化。

此外,团队开发了一套异步分发训练系统,支持两种模式:
1. 专属模型模式:为不同智能体分配独立资源池,分别更新模型;
2. 共享模型模式:合并所有智能体数据,集中更新一个共享模型。

PettingLLMs框架开源且灵活,支持任意模型与智能体映射,适配多种任务(如数学、代码、游戏等),并提供详细教程以简化开发流程。

实验效果

实验覆盖规划、代码生成和数学推理三大类任务,结果显著:
- 规划任务:Sokoban任务成功率从14%提升至96%,Plan-Path从47%提升至99.5%;
- 代码生成:LiveCodeBench提升6.1%,APPS提升4.2%,CodeContests提升7.0%;
- 数学推理:AIME 24提升9.0%,AIME 25提升17.9%。

消融实验进一步验证了框架的关键设计:
- 单智能体训练收益有限,联合训练才能实现高效协作;
- 角色互换会导致性能大幅下降,表明智能体学到了互补且不可替代的能力;
- 随着训练推进,智能体间协作更紧密,任务所需回合数持续减少。

论文:https://huggingface.co/papers/2510.11062
GitHub:https://github.com/pettingllms-ai/PettingLLMs

原文链接
本文链接:https://kx.umi6.com/article/28013.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
字节&MAP重塑大模型推理算法优化重点,强化学习重在高效探索助力LLM提升上限
2025-08-11 10:59:04
奥尔特曼:感受不到 GPT-5 变强,是因为你还不够「专业」
2025-10-05 20:24:55
超低成本复现QwQ!数学推理模型训练迎来RL暴击,数据代码全开源 | 蚂蚁&清华出品
2025-04-01 11:18:45
英伟达发布新 RL 范式:受 DeepSeek-R1 启发,重塑 AI 模型外部工具能力
2025-05-14 15:16:49
大模型刷数学题竟有害?CMU评估20+模型指出训练陷阱
2025-07-08 17:52:09
宇树和智元爆火背后:人类是如何给机器人注入灵魂的?
2025-03-14 09:00:17
图文并茂:DeepSeek R1 是怎么练成的
2025-02-18 11:11:33
01年实习生被曝负责字节RL核心算法!系字节LLM攻坚小组成员
2025-03-20 19:41:21
LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍
2025-11-08 13:43:06
多模态模型学会“按需搜索”,少搜30%还更准!字节&NTU新研究优化多模态模型搜索策略
2025-07-09 14:06:26
不蒸馏R1也能超越DeepSeek,上海 AI Lab 用RL突破数学推理极限
2025-02-16 12:22:15
姚班学霸、OpenAI姚顺雨:大模型下半场是产品的游戏
2025-04-17 17:47:23
Claude 4如何思考?资深研究员回应:RLVR已在编程/数学得到验证
2025-05-24 15:19:19
24小时热文
更多
扫一扫体验小程序