综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月13日,摩尔线程提出的URPO统一奖励与策略优化框架获人工智能顶级会议AAAI 2026收录。该框架融合“指令遵循”与“奖励评判”角色于单一模型,在数据格式统一、自我奖励循环及协同进化机制三方面实现技术突破,简化大模型训练并提升性能。实验显示,基于Qwen2.5-7B模型,URPO在AlpacaEval指令跟随榜单得分从42.24提升至44.84,综合推理能力测试平均分从32.66提升至35.66。其内部评判能力在RewardBench评测中达85.15分,超越专用奖励模型。目前,URPO已在摩尔线程自研计算卡上稳定运行,并适配VERL等主流强化学习框架。
原文链接
标题:大模型“精细化”对齐,真实性提升25.8%刷新SOTA!token级精准编辑,无需训练即插即用
正文:
一种名为Token-Aware Editing (TAE)的新方法显著提升了大语言模型的对齐能力,在TruthfulQA任务上真实性指标提升25.8%,达到当前最优性能。TAE是一种无需...
原文链接
加载更多
暂无内容