1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍

PettingLLMs团队 投稿
量子位 | 公众号 QbitAI

来自UCSD和英特尔的研究团队提出了一种通用化多智能体强化学习框架——PettingLLMs,首次实现了“群体强化”,显著提升了大语言模型(LLM)在多智能体协作中的表现。实验表明,在多个任务中,该框架可将性能提升最高达5.8倍。

研究背景

大语言模型驱动的多智能体系统已在医疗、编程、科研等领域展现出巨大潜力。然而,现有的强化学习框架(如GRPO算法)仅适用于单智能体训练,无法有效处理多智能体间的协作优化问题。核心难点在于,多智能体环境中的上下文(prompt)会因轮次和角色的不同而变化,导致传统方法难以公平评估各智能体的表现。

方法概述

研究团队提出了一种基于树状采样的贪心搜索方法,每轮为每个智能体生成多个分支,并选择奖励最高的分支进行下一轮扩展。这种方法平衡了探索与利用,同时通过设计专属奖励函数,兼顾了个体能力和全局协作的进化。

此外,团队开发了一套异步分发训练系统,支持两种模式:
1. 专属模型模式:为不同智能体分配独立资源池,分别更新模型;
2. 共享模型模式:合并所有智能体数据,集中更新一个共享模型。

PettingLLMs框架开源且灵活,支持任意模型与智能体映射,适配多种任务(如数学、代码、游戏等),并提供详细教程以简化开发流程。

实验效果

实验覆盖规划、代码生成和数学推理三大类任务,结果显著:
- 规划任务:Sokoban任务成功率从14%提升至96%,Plan-Path从47%提升至99.5%;
- 代码生成:LiveCodeBench提升6.1%,APPS提升4.2%,CodeContests提升7.0%;
- 数学推理:AIME 24提升9.0%,AIME 25提升17.9%。

消融实验进一步验证了框架的关键设计:
- 单智能体训练收益有限,联合训练才能实现高效协作;
- 角色互换会导致性能大幅下降,表明智能体学到了互补且不可替代的能力;
- 随着训练推进,智能体间协作更紧密,任务所需回合数持续减少。

论文:https://huggingface.co/papers/2510.11062
GitHub:https://github.com/pettingllms-ai/PettingLLMs

原文链接
本文链接:https://kx.umi6.com/article/28013.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
机器狗能当羽毛球搭子了!仅靠强化学习从0自学,还涌现出类人回位行为 | Science子刊
2025-05-30 16:56:50
GPT-5≈o3.1!OpenAI首次详解思考机制:RL+预训练才是AGI正道
2025-10-20 16:09:01
官方揭秘ChatGPT Agent背后原理!通过强化学习让模型自主探索最佳工具组合
2025-07-24 16:09:58
用多模态LLM超越YOLOv3!强化学习突破多模态感知极限|开源
2025-05-03 12:31:20
迁移DeepSeek-R1同款算法,小米让7B模型登顶音频理解推断MMAU榜单
2025-03-17 12:34:27
OpenAI新模型被曝秘密训练中,o4会是什么样?
2025-06-10 18:54:49
任务级奖励提升App Agent思考力,淘天提出Mobile-R1,3B模型可超32B
2025-07-20 15:05:31
混元OCR模型核心技术揭秘:统一框架、真端到端
2025-11-30 11:05:21
6小时复刻AI IMO金牌成果,蚂蚁多智能体新进展已开源
2025-08-02 18:21:17
强化学习+MCP=王炸?开源框架教AI在MCP中玩转工具解决任务,实测效果超越GPT!
2025-08-11 09:58:53
大模型刷数学题竟有害?CMU评估20+模型指出训练陷阱
2025-07-08 17:52:09
文生图进入R1时代:港中文发布T2I-R1,让AI绘画“先推理再下笔”
2025-05-14 17:20:57
波士顿动力 Spot 四足机器人学会连续后空翻,意外让行走姿态更像真实动物
2025-08-28 10:20:06
24小时热文
更多
扫一扫体验小程序