综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月24日,苹果公司与剑桥大学合作发布一项新研究,提出一种改进AI评审质量的系统。该系统通过引入外部验证工具,提升AI在复杂任务(如长篇事实核查、高级编码和数学问题)中的评估能力。研究人员设计了一个自主评估代理,可判断是否需使用工具,并完成初始评估、工具调用和最终决策三步流程。这些工具包括网络搜索的事实核查、代码执行验证以及数学运算检查。若无需工具,则使用基线大语言模型注释器处理简单任务。此方法旨在克服人类评审的时间限制、疲劳及偏见,同时解决AI在复杂任务上的局限性。
原文链接
首个奖励模型评分基准!清华复旦港科大联合攻克AI评委“偏科”
模型胡乱论证“1+1=3”,评测系统却浑然不觉甚至疯狂打Call?是时候给奖励模型打个分了!
来自清华大学、复旦大学和香港科技大学的研究团队,联合发布基准测试RM-BENCH,对大语言模型的“认知敏锐度”发出挑战。
RM-BENCH首次系...
原文链接
加载更多
暂无内容